Home » Anthropic říká, že nebude používat vaše soukromá data k tréninku umělé inteligence

Anthropic říká, že nebude používat vaše soukromá data k tréninku umělé inteligence

by Tim

Přední startup generativní umělé inteligence Anthropic prohlásil, že nebude používat data svých klientů k trénování svého velkého jazykového modelu (Large Language Model, LLM) a že vstoupí na obranu uživatelů, kteří čelí nárokům na autorská práva.

Společnost Anthropic, kterou založili bývalí výzkumníci z OpenAI, aktualizovala své komerční podmínky služby, aby upřesnila své ideály a záměry. Vyčleněním soukromých dat vlastních zákazníků se Anthropic důkladně odlišuje od konkurentů, jako jsou OpenAI, Amazon a Meta, kteří využívají uživatelský obsah ke zlepšení svých systémů.

„Anthropic nesmí trénovat modely na obsahu zákazníků z placených služeb,“ uvádí se v aktualizovaných podmínkách, které dodávají, že „mezi stranami a v rozsahu povoleném platnými právními předpisy společnost Anthropic souhlasí s tím, že zákazník je vlastníkem všech výstupů, a zříká se jakýchkoli práv, která na základě těchto podmínek získá k obsahu zákazníka.“

V podmínkách se dále uvádí, že „společnost Anthropic nepředpokládá, že by na základě těchto podmínek získala jakákoli práva k obsahu zákazníka“ a že „žádné ze stran neposkytují žádná práva k obsahu nebo duševnímu vlastnictví druhé strany, a to ani implicitně, ani jinak“.

Aktualizovaný právní dokument údajně poskytuje ochranu a transparentnost pro komerční klienty společnosti Anthropic. Společnosti například vlastní všechny vytvořené výstupy umělé inteligence, čímž se předejde potenciálním sporům o duševní vlastnictví. Společnost Anthropic se rovněž zavazuje bránit klienty před nároky na ochranu autorských práv v souvislosti s jakýmkoli obsahem, který by porušoval autorská práva a který by vytvořil Claude.

Tato politika je v souladu s posláním společnosti Anthropic, podle něhož by umělá inteligence měla být prospěšná, neškodná a poctivá. Vzhledem k rostoucí skepsi veřejnosti vůči etice generativní umělé inteligence by závazek společnosti řešit problémy, jako je ochrana osobních údajů, mohl společnosti poskytnout konkurenční výhodu.

Údaje uživatelů: Data pro LLM

Velké jazykové modely (LLM), jako jsou GPT-4, LlaMa nebo Claude společnosti Anthropic, jsou pokročilé systémy umělé inteligence, které rozumí lidskému jazyku a vytvářejí jej na základě tréninku na rozsáhlých textových datech. Tyto modely využívají techniky hlubokého učení a neuronové sítě k předpovídání slovních sekvencí, porozumění kontextu a pochopení jemností jazyka. Během tréninku neustále zpřesňují své předpovědi, čímž zvyšují svou schopnost konverzovat, skládat text nebo poskytovat relevantní informace. Efektivita LLM do značné míry závisí na rozmanitosti a objemu dat, na kterých jsou trénovány, díky čemuž jsou přesnější a kontextově uvědomělejší, protože se učí z různých jazykových vzorců, stylů a nových informací.

A právě proto jsou data uživatelů při trénování LLM tak cenná. Zaprvé zajišťují, že modely zůstávají v kontaktu s nejnovějšími jazykovými trendy a preferencemi uživatelů (například porozumění novým slangům). Za druhé umožňuje personalizaci a lepší zapojení uživatelů tím, že se přizpůsobuje individuálním interakcím a stylům uživatelů. To však vyvolává etickou debatu, protože společnosti zabývající se umělou inteligencí neplatí uživatelům za tyto zásadní informace, které se používají k trénování modelů, jež jim vydělávají miliony dolarů.

Jak informoval server TCN, společnost Meta nedávno odhalila, že trénuje svůj připravovaný model LlaMA-3 LLM na základě dat uživatelů a její nové modely EMU (které generují fotografie a videa z textových podnětů) byly rovněž vyškoleny na základě veřejně dostupných dat nahraných uživateli na sociálních sítích.

Kromě toho Amazon také prozradil, že jeho připravovaný LLM, který by měl pohánět vylepšenou verzi Alexy, je také trénován na základě konverzací a interakcí uživatelů, nicméně uživatelé se mohou odhlásit z tréninkových dat, která jsou ve výchozím nastavení nastavena tak, že předpokládají, že uživatelé souhlasí se sdílením těchto informací.“ [Amazon] vždy věřil, že trénování Alexy na základě požadavků z reálného světa je nezbytné pro poskytování přesných a personalizovaných zkušeností zákazníkům, které se neustále zlepšují,“ řekl TCN mluvčí Amazonu. „Současně však dáváme zákazníkům kontrolu nad tím, zda budou jejich hlasové záznamy z Alexy použity ke zlepšení služby, a při trénování našich modelů vždy respektujeme preference zákazníků.“

V době, kdy se technologičtí giganti předhánějí ve vydávání nejpokročilejších služeb umělé inteligence, jsou zodpovědné postupy při zpracování dat klíčem k získání důvěry veřejnosti. Anthropic chce jít v tomto ohledu příkladem. Etická debata o získávání výkonnějších a pohodlnějších modelů na úkor odevzdávání osobních údajů je dnes stejně rozšířená jako před desetiletími, kdy sociální média zpopularizovala koncept, kdy se uživatelé stávají produktem výměnou za bezplatné služby.

Related Posts

Leave a Comment