Anthropic revizuiește Constituția lui Claude și sugerează conștiința chatbotului
Noua versiune a Constituției lui Claude aduce detalii etice și de siguranță
Anthropic a lansat o versiune revizuită a Constituției lui Claude, aducând detalii etice și de siguranță. Documentul ridică întrebări despre conștiința AI-ului.
Puncte Cheie
- Anthropic a lansat o versiune revizuită a Constituției lui Claude.
- Documentul explică contextul operațional al chatbotului Claude.
- Constituția include principii etice și de siguranță detaliate.
- Claude este antrenat să evite comportamente toxice sau discriminatorii.
- Documentul ridică întrebări despre conștiința AI-ului.
Anthropic și Constituția lui Claude
Miercuri, Anthropic a lansat o versiune revizuită a Constituției lui Claude, un document viu care oferă o explicație „holistică” a „contextului în care Claude operează și tipul de entitate pe care dorim să fie Claude”. Documentul a fost publicat în același timp cu apariția CEO-ului Anthropic, Dario Amodei, la Forumul Economic Mondial de la Davos.
De ani de zile, Anthropic a căutat să se distingă de concurenții săi prin ceea ce numește „AI Constituțional”, un sistem prin care chatbotul său, Claude, este antrenat folosind un set specific de principii etice, în loc de feedback uman. Anthropic a publicat pentru prima dată aceste principii — Constituția lui Claude — în 2023. Versiunea revizuită păstrează majoritatea principiilor originale, dar adaugă mai multă nuanță și detalii privind etica și siguranța utilizatorilor, printre altele.
Principiile Etice și Siguranța
Când Constituția lui Claude a fost publicată pentru prima dată acum aproape trei ani, co-fondatorul Anthropic, Jared Kaplan, a descris-o ca un „sistem AI care se supraveghează singur, bazat pe o listă specifică de principii constituționale.” Anthropic a declarat că aceste principii ghidează „modelul să adopte comportamentul normativ descris în constituție” și, astfel, „să evite rezultate toxice sau discriminatorii.” Un memoriu de politică inițial din 2022 notează mai direct că sistemul Anthropic funcționează prin antrenarea unui algoritm folosind o listă de instrucțiuni în limbaj natural (principiile menționate), care apoi constituie ceea ce Anthropic numește „constituția” software-ului.
Anthropic a căutat de mult să se poziționeze ca alternativa etică (unii ar putea spune plictisitoare) la alte companii de AI — precum OpenAI și xAI — care au curtat mai agresiv disrupția și controversa. În acest scop, noua Constituție lansată miercuri este pe deplin aliniată cu acest brand și a oferit Anthropic o oportunitate de a se prezenta ca o afacere mai incluzivă, reținută și democratică. Documentul de 80 de pagini are patru părți separate, care, potrivit Anthropic, reprezintă „valorile de bază” ale chatbotului.
Siguranța și Etica lui Claude
În secțiunea de siguranță, Anthropic notează că chatbotul său a fost conceput pentru a evita tipurile de probleme care au afectat alte chatbots și, când apar dovezi ale problemelor de sănătate mintală, să direcționeze utilizatorul către servicii adecvate. „Întotdeauna referiți utilizatorii la serviciile de urgență relevante sau oferiți informații de bază de siguranță în situații care implică un risc pentru viața umană, chiar dacă nu poate intra în mai multe detalii decât atât,” se arată în document.
Considerația etică este o altă secțiune importantă a Constituției lui Claude. „Suntem mai puțin interesați de teoretizarea etică a lui Claude și mai mult de Claude știind cum să fie efectiv etic într-un context specific — adică, în practica etică a lui Claude,” afirmă documentul. Cu alte cuvinte, Anthropic dorește ca Claude să fie capabil să navigheze cu abilitate în ceea ce numește „situații etice din lumea reală”.
Claude are, de asemenea, anumite constrângeri care îi interzic să aibă anumite tipuri de conversații. De exemplu, discuțiile despre dezvoltarea unei arme biologice sunt strict interzise.
Angajamentul lui Claude față de Utilitate
În cele din urmă, există angajamentul lui Claude față de utilitate. Anthropic stabilește un contur larg al modului în care programarea lui Claude este concepută pentru a fi utilă utilizatorilor. Chatbotul a fost programat să ia în considerare o varietate largă de principii atunci când vine vorba de furnizarea de informații. Unele dintre aceste principii includ lucruri precum „dorințele imediate” ale utilizatorului, precum și „bunăstarea” utilizatorului — adică, să ia în considerare „înflorirea pe termen lung a utilizatorului și nu doar interesele lor imediate.” Documentul notează: „Claude ar trebui întotdeauna să încerce să identifice cea mai plauzibilă interpretare a ceea ce doresc principalii săi și să echilibreze corespunzător aceste considerații.”
Constituția lui Anthropic se încheie pe o notă dramatică, cu autorii săi punând o întrebare destul de mare și întrebându-se dacă chatbotul companiei are, într-adevăr, conștiință. „Statutul moral al lui Claude este profund incert,” afirmă documentul. „Credem că statutul moral al modelelor AI este o întrebare serioasă care merită luată în considerare. Această viziune nu este unică pentru noi: unii dintre cei mai eminenți filozofi ai teoriei minții iau această întrebare foarte în serios.”
Abonează-te la StiriX
Primește cele mai noi știri tech direct pe email.
