AI chatbot Claude staví uživatele před novou volbu: mají se rozhodnout, zda dají firmě Anthropic souhlas s používáním dat z konverzací k trénování AI modelů. Claude přitom dosud tato data nepoužíval.
Stávajícím uživatelům se nově zobrazuje obrazovka s výzvou, aby souhlas udělili. Na rozhodnutí mají čas do 28. září, po tomto datu po nich bude aplikace rozhodnutí přímo vyžadovat. Noví uživatelé se s volbou setkají při prvním spuštění aplikace.
Uživatelé mohou zpracovávání svých dat odmítnout a používat Claude dál bez omezení. Pokud svolení dají, začne Anthropic jejich data používat u všech nových nebo znovu oživených konverzací. Chatů, které se odehrály před okamžikem souhlasu, se změna týkat nemá. Souhlas se dá podle Anthropicu kdykoli změnit v nastavení aplikace.
Firma změnu udůvodňuje tím, že data potřebuje k tomu, aby byla schopná vylepšovat své AI modely na základě interakcí reálných uživatelů.
Pokud uživatel souhlas udělí, automaticky se mu také prodlouží doba, po kterou Anthropic jeho data uchovává, a to na 5 let. Tento posun firma vysvětluje tím, že jí to umožní lépe udržovat konzistenci modelů – když je trénuje na podobných datech, měla by získávat podobné výsledky. Uživatelé, kteří souhlas nedají, zůstanou u současné 30denní lhůty, po které Anthropic data smaže.
Změna se týká jak zdarma dostupné verze chatbotu Claude, tak placených verzí Pro a Max. Nedotkne se balíčků pro firmy a instituce Claude for Work, Claude Gov, Claude for Education. Netýká se ani případu, kdy uživatelé používají Claude přes API, a to ani když tak činí přes služby třetích stran jako je Amazon Bedrock nebo Vertex AI.