Home » Anthropic dice que no utilizará tus datos privados para entrenar su IA

Anthropic dice que no utilizará tus datos privados para entrenar su IA

by v

La startup líder en IA generativa Anthropic ha declarado que no utilizará los datos de sus clientes para entrenar su Large Language Model (LLM), y que intervendrá para defender a los usuarios que se enfrenten a reclamaciones por derechos de autor.

Anthropic, fundada por antiguos investigadores de OpenAI, actualizó sus condiciones de servicio comercial para explicar sus ideales e intenciones. Al separar los datos privados de sus propios clientes, Anthropic se diferencia claramente de rivales como OpenAI, Amazon y Meta, que sí aprovechan el contenido de los usuarios para mejorar sus sistemas.

Según las condiciones actualizadas, «Anthropic no puede entrenar modelos con contenido de clientes de servicios de pago», y añade que «entre las partes y en la medida en que lo permita la legislación aplicable, Anthropic acepta que el cliente es propietario de todos los resultados y renuncia a cualquier derecho que reciba sobre el contenido del cliente en virtud de estas condiciones».

Los términos continúan diciendo que «Anthropic no prevé obtener ningún derecho sobre el contenido del cliente en virtud de estos términos» y que «no conceden a ninguna de las partes ningún derecho sobre el contenido o la propiedad intelectual de la otra, por implicación o de otro modo.»

El documento legal actualizado proporciona ostensiblemente protección y transparencia a los clientes comerciales de Anthropic. Por ejemplo, las empresas son propietarias de todos los resultados de IA generados, lo que evita posibles disputas sobre propiedad intelectual. Anthropic también se compromete a defender a los clientes de las reclamaciones de derechos de autor sobre cualquier contenido infractor producido por Claude.

La política se ajusta a la declaración de principios de Anthropic de que la IA debe ser beneficiosa, inofensiva y honesta. A medida que crece el escepticismo público sobre la ética de la IA generativa, el compromiso de la empresa para hacer frente a preocupaciones como la privacidad de los datos podría darle una ventaja competitiva.

Datos de los usuarios: El alimento vital de los LLM

Large Language Models (LLMs) como GPT-4, LlaMa o Claude de Anthropic son sistemas avanzados de IA que comprenden y generan lenguaje humano al ser entrenados sobre extensos datos de texto. Estos modelos utilizan técnicas de aprendizaje profundo y redes neuronales para predecir secuencias de palabras, entender el contexto y comprender las sutilezas del lenguaje. Durante el entrenamiento, perfeccionan continuamente sus predicciones, mejorando su capacidad para conversar, componer textos o proporcionar información relevante. La eficacia de los LLM depende en gran medida de la diversidad y el volumen de los datos con los que se entrenan, lo que los hace más precisos y conscientes del contexto a medida que aprenden de diversos patrones lingüísticos, estilos y nueva información.

Por eso los datos de los usuarios son tan valiosos para entrenar los LLM. En primer lugar, garantiza que los modelos estén al día de las últimas tendencias lingüísticas y preferencias de los usuarios (por ejemplo, la comprensión de nuevas jergas). En segundo lugar, permite personalizar y mejorar el compromiso del usuario adaptándose a sus interacciones y estilos individuales. Sin embargo, esto genera un debate ético porque las empresas de IA no pagan a los usuarios por esta información crucial que se utiliza para entrenar modelos que les hacen ganar millones de dólares.

Como informó TCN, Meta reveló recientemente que está entrenando su próximo LlaMA-3 LLM basándose en los datos de los usuarios y sus nuevos modelos EMU (que generan fotos y vídeos a partir de mensajes de texto) también se entrenaron utilizando datos disponibles públicamente subidos por sus usuarios en las redes sociales.

Además de eso, Amazon también reveló que su próximo LLM, que impulsaría una versión mejorada de Alexa también está siendo entrenado en las conversaciones e interacciones de los usuarios, sin embargo, los usuarios pueden optar por no recibir los datos de entrenamiento que por defecto está configurado para asumir que los usuarios están de acuerdo en compartir esta información «[Amazon] siempre ha creído que el entrenamiento de Alexa con peticiones del mundo real es esencial para ofrecer una experiencia a los clientes que es precisa y personalizada y en constante mejora», dijo un portavoz de Amazon a TCN. «Pero a la par, damos a los clientes el control sobre si sus grabaciones de voz de Alexa se utilizan para mejorar el servicio, y siempre respetamos las preferencias de nuestros clientes cuando entrenamos nuestros modelos».

Con los gigantes tecnológicos compitiendo por lanzar los servicios de IA más avanzados, las prácticas de datos responsables son clave para ganarse la confianza del público. Anthropic pretende predicar con el ejemplo en este sentido. El debate ético sobre la obtención de modelos más potentes y cómodos a costa de ceder información personal está tan extendido hoy como hace décadas, cuando las redes sociales popularizaron el concepto de que los usuarios se convirtieran en el producto a cambio de servicios gratuitos.

Related Posts

Leave a Comment