Home » El presidente de Microsoft afirma que los gobiernos deben “avanzar más rápido” en la regulación de la IA

El presidente de Microsoft afirma que los gobiernos deben «avanzar más rápido» en la regulación de la IA

by Patricia

La IA generativa se refiere a un sistema de inteligencia artificial capaz de generar texto, imágenes u otros medios en respuesta a instrucciones proporcionadas por el usuario. Algunos ejemplos destacados son la plataforma generadora de imágenes Midjourney, Bard de Google y ChatGPT de OpenAI.

Desde el lanzamiento público de ChatGPT en noviembre, la demanda de regulación de la IA ha ido en aumento. Personalidades como Warren Buffett, Elon Musk e incluso Sam Altman, consejero delegado de OpenAI, han hablado de los peligros potenciales de esta tecnología. Un factor clave en la actual huelga de guionistas de la WGA es el temor a que la IA pueda utilizarse para sustituir a los guionistas humanos, un sentimiento compartido por los artistas de videojuegos ahora que los estudios de juegos están estudiando la tecnología.

Smith se mostró partidario de exigir a los desarrolladores que obtengan una licencia antes de poner en marcha proyectos avanzados de IA, y sugirió que lo que denominó IA de «alto riesgo» sólo debería funcionar en centros de datos de IA con licencia.

El ejecutivo de Microsoft también hizo un llamamiento a las empresas para que asuman la responsabilidad de gestionar la tecnología que ha tomado el mundo por asalto, sugiriendo que el impulso no recae únicamente en los gobiernos para manejar el potencial impacto social de la IA.

«Eso significa que hay que notificar al gobierno cuando se empiezan a hacer pruebas», dijo Smith. «Incluso cuando se obtiene la licencia para su despliegue, tienes la obligación de seguir controlándola e informar al gobierno si surgen problemas inesperados».

A pesar de las preocupaciones, Microsoft ha apostado fuerte por la IA, al parecer invirtiendo más de 13.000 millones de dólares en el desarrollador de ChatGPT OpenAI e integrando el popular chatbot en su navegador web Bing.

«Estamos comprometidos y decididos como empresa a desarrollar y desplegar la IA de forma segura y responsable», escribió Smith en un post sobre la gobernanza de la IA. «También reconocemos, sin embargo, que los guardarraíles necesarios para la IA requieren un sentido de responsabilidad ampliamente compartido y no deben dejarse solo en manos de las empresas de tecnología.»

En marzo, Microsoft lanzó su Security Copilot, la primera herramienta especializada de su línea Copilot que utiliza IA para ayudar a los profesionales de TI y ciberseguridad a identificar ciberamenazas utilizando grandes conjuntos de datos.

Los comentarios de Smith se hacen eco de los realizados por Sam Altman, CEO de OpenAI, durante una audiencia ante el Comité Judicial del Senado de EE.UU. la semana pasada. Altman sugirió crear una agencia federal que regule y establezca normas para el desarrollo de la IA.

«Yo formaría una nueva agencia que concediera licencias a cualquier esfuerzo por encima de una cierta escala de capacidades, y que pudiera retirar esa licencia y garantizar el cumplimiento de las normas de seguridad», dijo Altman.

Microsoft no respondió de inmediato a la solicitud de comentarios de TCN.

Related Posts

Leave a Comment