OpenAI lansează instrumente open source pentru siguranța adolescenților
Set de politici pentru dezvoltatori, creat cu ajutorul Common Sense Media
OpenAI a lansat un set de instrumente open source pentru a ajuta dezvoltatorii să creeze aplicații mai sigure pentru adolescenți, colaborând cu Common Sense Media.
Puncte Cheie
- OpenAI a lansat un set de prompturi pentru siguranța adolescenților.
- Acestea sunt compatibile cu modelul gpt-oss-safeguard.
- Politicile abordează violența grafică, conținutul sexual și alte riscuri.
- Common Sense Media și everyone.ai au colaborat la dezvoltare.
- Politicile sunt open source și pot fi adaptate în timp.
OpenAI și Siguranța Adolescenților
OpenAI a anunțat marți lansarea unui set de prompturi menite să ajute dezvoltatorii să creeze aplicații mai sigure pentru adolescenți. Aceste politici de siguranță pentru adolescenți sunt concepute pentru a fi utilizate împreună cu modelul său de siguranță open-weight, cunoscut sub numele de gpt-oss-safeguard. În loc să înceapă de la zero în eforturile de a face inteligența artificială mai sigură pentru adolescenți, dezvoltatorii pot folosi aceste prompturi pentru a consolida aplicațiile pe care le dezvoltă.
Politici de Siguranță și Colaborări
Politicile de siguranță abordează probleme precum violența grafică și conținutul sexual, idealurile și comportamentele corporale dăunătoare, activitățile și provocările periculoase, jocurile de rol romantice sau violente și bunurile și serviciile restricționate de vârstă. Aceste politici sunt concepute sub formă de prompturi, ceea ce le face ușor compatibile cu alte modele, deși sunt probabil cele mai eficiente în cadrul ecosistemului OpenAI. Pentru a scrie aceste prompturi, OpenAI a colaborat cu organizații de supraveghere a siguranței AI, cum ar fi Common Sense Media și everyone.ai.
Impactul și Limitările Politicilor
Robbie Torney, șeful AI & Digital Assessments la Common Sense Media, a declarat: «Aceste politici bazate pe prompturi ajută la stabilirea unui nivel semnificativ de siguranță în întregul ecosistem și, deoarece sunt lansate ca open source, pot fi adaptate și îmbunătățite în timp.» OpenAI a subliniat în blogul său că dezvoltatorii, inclusiv echipele experimentate, întâmpină adesea dificultăți în a transpune obiectivele de siguranță în reguli operaționale precise. «Acest lucru poate duce la lacune în protecție, aplicare inconsistentă sau filtrare excesiv de largă,» a scris compania. «Politicile clare și bine definite sunt o fundație critică pentru sisteme de siguranță eficiente.»
Provocările Continui ale Siguranței AI
OpenAI recunoaște că aceste politici nu reprezintă o soluție completă la provocările complexe ale siguranței AI. Cu toate acestea, ele construiesc pe eforturile anterioare, inclusiv măsuri de protecție la nivel de produs, cum ar fi controlul parental și predicția vârstei. Anul trecut, OpenAI a actualizat liniile directoare pentru modelele sale de limbaj mari — cunoscute sub numele de Model Spec — pentru a aborda modul în care modelele sale AI ar trebui să se comporte cu utilizatorii sub 18 ani.
Controverse și Viitorul Siguranței AI
Deși OpenAI nu are cel mai curat istoric, compania se confruntă cu mai multe procese intentate de familiile persoanelor care s-au sinucis după utilizarea extremă a ChatGPT. Aceste relații periculoase se formează adesea după ce utilizatorul depășește măsurile de protecție ale chatbot-ului, iar niciun model nu are garduri de protecție complet impenetrabile. Totuși, aceste politici reprezintă cel puțin un pas înainte, mai ales că pot ajuta dezvoltatorii independenți.
Abonează-te la StiriX
Primește cele mai noi știri tech direct pe email.
