Home » Anthropic заявява, че няма да използва личните ви данни за обучение на своя изкуствен интелект

Anthropic заявява, че няма да използва личните ви данни за обучение на своя изкуствен интелект

by v

Водещият стартъп за генеративен изкуствен интелект Anthropic обяви, че няма да използва данните на клиентите си за обучение на своя Голям езиков модел (LLM) и че ще се намеси в защита на потребителите, които са изправени пред искове за авторски права.

Anthropic, основана от бивши изследователи от OpenAI, актуализира своите търговски условия за ползване, за да изложи своите идеали и намерения. Като отделя частните данни на своите клиенти, Anthropic се разграничава от конкуренти като OpenAI, Amazon и Meta, които използват потребителско съдържание за подобряване на своите системи.

„Anthropic не може да обучава модели върху клиентско съдържание от платени услуги“, се казва в актуализираните условия, в които се добавя, че „в отношенията между страните и до степента, позволена от приложимото законодателство, Anthropic се съгласява, че клиентът е собственик на всички резултати, и се отказва от всякакви права, които получава върху клиентското съдържание съгласно тези условия“.

По-нататък в условията се казва, че „Anthropic не очаква да получи каквито и да било права върху съдържанието на клиента съгласно тези условия“ и че те „не предоставят на никоя от страните никакви права върху съдържанието или интелектуалната собственост на другата страна, по подразбиране или по друг начин“.

Актуализираният правен документ привидно осигурява защита и прозрачност за търговските клиенти на Anthropic. Компаниите например притежават всички генерирани резултати от ИИ, като по този начин се избягват потенциални спорове за интелектуална собственост. Anthropic също така се ангажира да защитава клиентите си от искове за авторски права във връзка с всяко съдържание, нарушаващо авторските права, създадено от Клод.

Политиката е в съответствие с мисията на Anthropic, според която ИИ трябва да бъде полезен, безвреден и честен. Тъй като общественият скептицизъм по отношение на етиката на генеративния ИИ нараства, ангажиментът на компанията да се справи с опасения като неприкосновеността на личните данни може да ѝ даде конкурентно предимство.

Данните на потребителите: Данните на LLM са жизненоважна храна

Големите езикови модели (LLM) като GPT-4, LlaMa или Claude на Anthropic са усъвършенствани системи за изкуствен интелект, които разбират и генерират човешки език, като се обучават на обширни текстови данни. Тези модели използват техники за дълбоко обучение и невронни мрежи, за да предсказват последователности от думи, да разбират контекста и да схващат тънкостите на езика. По време на обучението те непрекъснато усъвършенстват прогнозите си, като подобряват способността си да разговарят, да съставят текст или да предоставят подходяща информация. Ефективността на LLM зависи до голяма степен от разнообразието и обема на данните, върху които са обучени, което ги прави по-точни и контекстуално осъзнати, тъй като се учат от различни езикови модели, стилове и нова информация.

Ето защо данните на потребителите са толкова ценни при обучението на LLM. Първо, те гарантират, че моделите са в крак с най-новите езикови тенденции и предпочитания на потребителите (например разбиране на нови жаргонизми). Второ, тя позволява персонализиране и по-добро ангажиране на потребителите чрез адаптиране към индивидуалните взаимодействия и стилове на потребителите. Това обаче поражда етичен дебат, тъй като компаниите за изкуствен интелект не плащат на потребителите за тази важна информация, която се използва за обучение на модели, които им носят милиони долари.

Както съобщава TCN, Meta наскоро разкри, че обучава предстоящия си LlaMA-3 LLM въз основа на данни на потребителите, а новите ѝ модели EMU (които генерират снимки и видеоклипове от текстови подсказки) също са били обучени с помощта на публично достъпни данни, качени от потребителите в социалните медии.

Освен това Amazon разкри, че предстоящият LLM, който ще захранва подобрена версия на Alexa, също се обучава на базата на разговорите и взаимодействията на потребителите, като обаче потребителите могат да се откажат от данните за обучение, които по подразбиране са настроени да приемат, че потребителите са съгласни да споделят тази информация.“[Amazon] винаги е вярвала, че обучението на Alexa с реални заявки е от съществено значение за предоставянето на изживяване на клиентите, което е точно и персонализирано и постоянно се подобрява“, заяви говорител на Amazon пред TCN. „Но успоредно с това ние даваме на клиентите контрол върху това дали техните гласови записи от Alexa се използват за подобряване на услугата и винаги зачитаме предпочитанията на клиентите, когато обучаваме моделите си.“

Тъй като технологичните гиганти се надпреварват да пуснат най-усъвършенстваните услуги с изкуствен интелект, отговорните практики за обработка на данни са от ключово значение за спечелване на общественото доверие. Anthropic се стреми да даде пример в това отношение. Етичният дебат за придобиването на по-мощни и удобни модели за сметка на предаването на лична информация е толкова разпространен днес, колкото и преди десетилетия, когато социалните медии популяризираха концепцията потребителите да се превръщат в продукт в замяна на безплатни услуги.

Related Posts

Leave a Comment