Home » Aumentan los temores ante la IA: Alemania, Francia, Suecia y Canadá expresan su preocupación

Aumentan los temores ante la IA: Alemania, Francia, Suecia y Canadá expresan su preocupación

by Patricia

Varios gobiernos del mundo están cada vez más inquietos ante la caja de Pandora de la inteligencia artificial avanzada que se abrió de par en par con la publicación de ChatGPT por OpenAI. Incluso mientras reflexionan sobre posibles regulaciones, no está claro si el genio puede volver a meterse en la botella.

El martes, el comisionado de privacidad de Canadá dijo que estaba investigando ChatGPT, uniéndose a sus colegas en una creciente lista de países -incluyendo Alemania, Francia y Suecia- que han expresado su preocupación por el popular chatbot después de que Italia lo prohibiera por completo el domingo.

«La tecnología de inteligencia artificial y sus efectos sobre la privacidad son una prioridad para mi oficina», declaró Philippe Dufresne, Comisario de Privacidad de Canadá. «Tenemos que mantenernos al día -y adelantarnos- a los rápidos avances tecnológicos, y esa es una de mis principales áreas de interés como Comisario».

La prohibición de Italia se derivó de un incidente ocurrido el 20 de marzo en el que OpenAI reconoció un fallo en el sistema que expuso la información de pago y el historial de chat de los usuarios. OpenAI desconectó brevemente ChatGPT para corregir el fallo.

«No necesitamos una prohibición de las aplicaciones de IA, sino formas de garantizar valores como la democracia y la transparencia», declaró el lunes un portavoz del Ministerio del Interior alemán al medio alemán Handelsblatt.

Pero, ¿es posible prohibir el software y la inteligencia artificial en un mundo en el que existen las redes privadas virtuales (VPN)?

Una VPN es un servicio que permite a los usuarios acceder a Internet de forma segura y privada mediante la creación de una conexión cifrada entre su dispositivo y un servidor remoto. Esta conexión enmascara la dirección IP de origen del usuario, haciendo que parezca que accede a internet desde la ubicación del servidor remoto y no desde su ubicación real.

Además, «una prohibición de la inteligencia artificial puede no ser realista porque ya hay muchos modelos de inteligencia artificial en uso y se están desarrollando más», dijo a TCN Jake Maymar, vicepresidente de Innovaciones de la consultora de inteligencia artificial Glimpse Group. «La única forma de aplicar una prohibición de la Inteligencia Artificial sería prohibir el acceso a los ordenadores y a la tecnología en la nube, lo que no es una solución práctica».

El intento de Italia de prohibir ChatGPT se produce en medio de una creciente aprensión sobre el impacto que la inteligencia artificial tendrá en la privacidad y la seguridad de los datos, y su potencial mal uso.

Un grupo de expertos en Inteligencia Artificial, el Center for A.I. and Digital Policy, presentó el mes pasado una queja formal ante la Comisión Federal de Comercio de Estados Unidos, acusando a OpenAI de prácticas engañosas y desleales tras la aparición de una carta abierta firmada por varios miembros destacados de la comunidad tecnológica que pedía frenar el desarrollo de la inteligencia artificial.

OpenAI trató de responder a estas preocupaciones en una entrada de blog del 5 de abril sobre la seguridad de la IA en la que destacaba el compromiso de la empresa con la investigación a largo plazo sobre seguridad y la cooperación con la comunidad de la Inteligencia Artificial.

OpenAI dijo que su objetivo es mejorar la precisión de los hechos, reduciendo la probabilidad de «alucinaciones», al tiempo que protege la privacidad de los usuarios y los niños, incluyendo la búsqueda de opciones de verificación de edad. «También reconocemos que, como cualquier tecnología, estas herramientas vienen con riesgos reales, por lo que trabajamos para garantizar que la seguridad se incorpore a nuestro sistema en todos los niveles», escribió la compañía.

El mensaje de OpenAI no sentó bien a algunos, que lo calificaron de «escaparate de relaciones públicas que no aborda el riesgo existencial que plantea la IA».

Mientras algunos hacen sonar la alarma sobre ChatGPT, otros afirman que el chatbot no es el problema, sino una cuestión más amplia sobre el uso que la sociedad pretende darle.

«Lo que este momento ofrece es la oportunidad de considerar qué tipo de sociedad queremos ser -qué reglas queremos aplicar a todos por igual, con o sin IA- y qué tipo de reglas económicas sirven mejor a la sociedad», dijo a TCN Barath Raghavan, profesor asociado de Informática en USC Viterbi. «Las mejores respuestas políticas no serán las que se dirijan a mecanismos tecnológicos específicos de la inteligencia artificial actual (que quedarán rápidamente desfasados), sino comportamientos y normas que nos gustaría que se aplicaran universalmente».

Related Posts

Leave a Comment