Home » Os Medos da IA Crescem à medida que a Alemanha, a França, a Suécia e o Canadá se preocupam com a voz

Os Medos da IA Crescem à medida que a Alemanha, a França, a Suécia e o Canadá se preocupam com a voz

by Thomas

Os governos do mundoeveral estão a ficar cada vez mais nervosos com a caixa de Pandora de inteligência artificial avançada que foi aberta ao público com o lançamento do ChatGPT pelo OpenAI. Mesmo quando se discutem possíveis regulamentações, não está claro se o génio pode sequer ser forçado a voltar para a garrafa.

Na terça-feira, o comissário de privacidade canadiano disse que estava a investigar o ChatGPT, juntando-se a colegas de uma lista crescente de países – incluindo a Alemanha, França e Suécia – que expressaram preocupações sobre o popular chatbot depois de a Itália o ter banido totalmente no domingo.

“A tecnologia A.I. e os seus efeitos sobre a privacidade é uma prioridade para o meu gabinete”, disse Philippe Dufresne, o Comissário para a Privacidade do Canadá, numa declaração. “Precisamos de nos manter – e mantermo-nos à frente dos avanços tecnológicos mais rápidos, e essa é uma das minhas principais áreas de enfoque como Comissário”.

A proibição da Itália resultou de um incidente de 20 de Março no qual o OpenAI reconheceu um erro no sistema que expôs o histórico de pagamentos e conversas dos utilizadores. O OpenAI levou brevemente o ChatGPT para fora de linha para corrigir o bug.

“Não precisamos de uma proibição das aplicações de IA, mas sim de formas de assegurar valores como a democracia e a transparência”, disse na segunda-feira um porta-voz do Ministério do Interior alemão, Handelsblatt, ao noticiário alemão.

Mas é possível proibir software e inteligência artificial mesmo num mundo onde existem redes privadas virtuais (VPNs)?

A VPN é um serviço que permite aos utilizadores acederem de forma segura e privada à Internet, criando uma ligação encriptada entre o seu dispositivo e um servidor remoto. Esta ligação mascara o endereço IP residencial do utilizador, fazendo parecer que estão a aceder à Internet a partir da localização do servidor remoto e não da sua localização real.

Além disso, “uma proibição de I.A. pode não ser realista porque já existem muitos modelos de I.A. em uso e mais estão a ser desenvolvidos”, disse Jake Maymar, vice-presidente de Inovações da empresa A.I. Consulting do Grupo Glimpse, à TCN. “A única forma de impor uma proibição de I.A. seria proibir o acesso a computadores e à tecnologia das nuvens, o que não é uma solução prática”.

A tentativa da Itália de proibir o ChatGPT surge no meio de uma apreensão crescente sobre o impacto que a inteligência artificial terá na privacidade e segurança de dados, e a sua potencial má utilização.

Um grupo de reflexão da IA, o Center for A.I. and Digital Policy, apresentou uma queixa formal à U.S. Federal Trade Commission no mês passado, acusando a OpenAI de práticas enganosas e desleais após o surgimento de uma carta aberta assinada por vários membros de alto nível da comunidade tecnológica que apelava a um abrandamento do desenvolvimento da inteligência artificial.

A OpenAI tentou abordar estas preocupações num post de blogue de 5 de Abril sobre segurança da IA que esboçava o compromisso da empresa com a investigação de segurança a longo prazo e a cooperação com a comunidade A.I.

OpenAI afirmou que o seu objectivo é melhorar a precisão factual, reduzindo a probabilidade de “alucinações”, ao mesmo tempo que protege a privacidade dos utilizadores e das crianças, incluindo a análise das opções de verificação da idade. “Também reconhecemos que, como qualquer tecnologia, estas ferramentas vêm com riscos reais – por isso trabalhamos para garantir que a segurança seja incorporada no nosso sistema a todos os níveis”, escreveu a empresa.

A mensagem da OpenAI não foi bem recebida por alguns, que lhe chamaram Vestir a janela de relações públicas que não abordava o risco existencial colocado pela IA”.

Enquanto alguns soam o alarme no ChatGPT, outros dizem que o chatbot não é o problema, mas sim uma questão mais ampla da utilização que a sociedade pretende dar-lhe.

“O que este momento proporciona é uma oportunidade de considerar que tipo de sociedade queremos ser – que regras queremos aplicar a todos igualmente, alimentadas ou não pela IA – e que tipo de regras económicas servem melhor a sociedade”, disse Barath Raghavan, Professor Associado de Informática na USC Viterbi, ao TCN. “As melhores respostas políticas não serão aquelas que visam mecanismos tecnológicos específicos da actual I.A. (que rapidamente estará desactualizada), mas sim comportamentos e regras que gostaríamos de ver aplicadas universalmente”.

Related Posts

Leave a Comment