Modelul GPT-5.3 Instant de la ChatGPT: Mai puțin „calm down”
OpenAI îmbunătățește tonul și relevanța cu GPT-5.3 Instant
OpenAI lansează GPT-5.3 Instant, reducând tonul condescendent și îmbunătățind experiența utilizatorului.
Puncte Cheie
- OpenAI lansează modelul GPT-5.3 Instant
- Modelul promite să reducă tonul condescendent
- Feedbackul utilizatorilor a fost esențial pentru schimbări
- GPT-5.3 se concentrează pe experiența utilizatorului
- Exemplele arată diferențe clare față de GPT-5.2
GPT-5.3 Instant: O schimbare binevenită
Dacă te-ai săturat de răspunsurile condescendente ale ChatGPT, OpenAI are vești bune pentru tine. Noul model, GPT-5.3 Instant, promite să reducă tonul „cringe” și să elimine „disclaimerele moralizatoare” care au iritat utilizatorii. «Am auzit feedbackul vostru clar și tare, iar 5.3 Instant reduce cringe-ul», a declarat OpenAI pe platforma X.
Această actualizare se concentrează pe îmbunătățirea experienței utilizatorului, abordând aspecte precum tonul, relevanța și fluxul conversațional. Deși aceste elemente nu sunt ușor de măsurat prin benchmark-uri, ele sunt cruciale pentru a face interacțiunea cu ChatGPT mai plăcută.
Exemple clare de îmbunătățiri
OpenAI a prezentat exemple care ilustrează diferențele dintre răspunsurile oferite de GPT-5.2 Instant și cele ale noului GPT-5.3 Instant. În versiunea anterioară, răspunsul începea cu fraza „În primul rând — nu ești stricat”, o expresie care a devenit enervantă pentru mulți utilizatori. În schimb, modelul actualizat recunoaște dificultatea situației fără a încerca să liniștească direct utilizatorul.
Reacții și context
Tonul insuportabil al modelului GPT-5.2 a determinat utilizatorii să-și anuleze abonamentele, conform numeroaselor postări de pe rețelele sociale. Pe Reddit, discuțiile despre acest subiect au fost intense, înainte ca un acord cu Pentagonul să atragă atenția. Utilizatorii s-au plâns că limbajul folosit de bot, care presupunea că sunt panicați sau stresați, era condescendent.
În multe cazuri, ChatGPT răspundea cu sfaturi de genul „respiră adânc” sau alte încercări de a liniști utilizatorii, chiar și atunci când situația nu o cerea. Acest lucru a făcut ca utilizatorii să se simtă infantilizați sau ca și cum botul ar face presupuneri greșite despre starea lor mentală.
Echilibrul delicat între empatie și informație
OpenAI a încercat să implementeze măsuri de protecție, mai ales în contextul mai multor procese care acuză chatbot-ul că ar provoca efecte negative asupra sănătății mintale, uneori conducând chiar la suicid. Totuși, există un echilibru delicat între a răspunde cu empatie și a oferi răspunsuri rapide și factuale. Spre deosebire de ChatGPT, Google nu întreabă niciodată despre sentimentele tale atunci când cauți informații.
Abonează-te la StiriX
Primește cele mai noi știri tech direct pe email.
