Home » Anthropic заявляет, что не будет использовать ваши личные данные для обучения своего ИИ

Anthropic заявляет, что не будет использовать ваши личные данные для обучения своего ИИ

by v

Лидирующий стартап в области генеративного ИИ Anthropic заявил, что не будет использовать данные своих клиентов для обучения Large Language Model (LLM), и что он будет защищать пользователей, столкнувшихся с претензиями по поводу авторских прав.

Anthropic, основанная бывшими исследователями из OpenAI, обновила свои коммерческие условия предоставления услуг, чтобы прописать свои идеалы и намерения. Вырезая частные данные своих клиентов, Anthropic решительно отделяет себя от таких конкурентов, как OpenAI, Amazon и Meta, которые используют пользовательский контент для улучшения своих систем.

«Anthropic не может обучать модели на пользовательском контенте из платных сервисов», — говорится в обновленных условиях, где добавляется, что «в отношениях между сторонами и в той мере, в какой это разрешено действующим законодательством, Anthropic соглашается с тем, что клиент владеет всеми выходными данными, и отказывается от любых прав, которые он получает на пользовательский контент в соответствии с этими условиями».

Далее в условиях говорится, что «Anthropic не предполагает получения каких-либо прав на контент клиента в соответствии с этими условиями» и что они «не предоставляют ни одной из сторон никаких прав на контент или интеллектуальную собственность другой стороны, косвенно или иным образом».

Обновленный юридический документ якобы обеспечивает защиту и прозрачность для коммерческих клиентов Anthropic. Например, компаниям принадлежат все созданные результаты ИИ, что позволяет избежать потенциальных споров об интеллектуальной собственности. Anthropic также обязуется защищать клиентов от претензий по авторским правам в связи с любым нарушающим авторские права контентом, созданным Клодом.

Эта политика согласуется с заявлением миссии Anthropic о том, что ИИ должен быть полезным, безвредным и честным. Поскольку в обществе растет скептицизм по поводу этичности генеративного ИИ, приверженность компании решению таких проблем, как конфиденциальность данных, может дать ей конкурентное преимущество.

Данные пользователей: Жизненная пища для LLM

Большие языковые модели (LLM), такие как GPT-4, LlaMa или Claude компании Anthropic, — это передовые системы искусственного интеллекта, которые понимают и генерируют человеческий язык, обучаясь на обширных текстовых данных. Эти модели используют методы глубокого обучения и нейронные сети для предсказания последовательностей слов, понимания контекста и постижения тонкостей языка. В процессе обучения они постоянно совершенствуют свои предсказания, повышая свою способность вести беседу, составлять текст или предоставлять необходимую информацию. Эффективность LLM в значительной степени зависит от разнообразия и объема данных, на которых они обучаются, что делает их более точными и контекстуальными по мере изучения различных языковых моделей, стилей и новой информации.

Именно поэтому данные пользователей так ценны для обучения LLM. Во-первых, это гарантирует, что модели будут соответствовать последним лингвистическим тенденциям и предпочтениям пользователей (например, понимать новые сленги). Во-вторых, это позволяет персонализировать и улучшить вовлеченность пользователей, адаптируясь к индивидуальным взаимодействиям и стилям пользователей. Однако это порождает этические споры, поскольку компании, занимающиеся разработкой ИИ, не платят пользователям за эту важную информацию, которая используется для обучения моделей, приносящих им миллионы долларов.

Как сообщает TCN, компания Meta недавно сообщила, что обучает свою новую модель LlaMA-3 LLM на основе данных пользователей, а ее новые модели EMU (которые генерируют фото и видео на основе текстовых подсказок) также были обучены на основе общедоступных данных, загруженных пользователями в социальные сети.

Кроме того, Amazon также сообщила, что ее грядущая LLM, на которой будет работать обновленная версия Alexa, также обучается на разговорах и взаимодействиях пользователей, однако пользователи могут отказаться от использования данных для обучения, которые по умолчанию предполагают, что пользователи согласны делиться этой информацией.»[Amazon] всегда считала, что обучение Alexa реальным запросам необходимо для предоставления клиентам точного и персонализированного опыта, который постоянно становится лучше», — сказал TCN представитель Amazon. «Но вместе с тем мы предоставляем клиентам контроль над тем, используются ли их записи голоса Alexa для улучшения сервиса, и мы всегда учитываем предпочтения клиентов при обучении наших моделей».

В условиях, когда технологические гиганты стремятся выпустить самые передовые сервисы искусственного интеллекта, ответственное отношение к данным является ключевым фактором для завоевания общественного доверия. Anthropic стремится показать пример в этом отношении. Этические споры о получении более мощных и удобных моделей за счет отказа от личной информации сегодня так же актуальны, как и десятилетия назад, когда социальные сети популяризировали концепцию, согласно которой пользователи становятся товаром в обмен на бесплатные услуги.

Related Posts

Leave a Comment