Anthropic îmbunătățește Claude Code cu un nou mod automat
Sursă imagine: Jagmeet Singh / TechCrunch
AI & ML3 min citire25 martie 2026

Anthropic îmbunătățește Claude Code cu un nou mod automat

Modul auto promite mai mult control pentru AI, dar cu măsuri de siguranță

Anthropic introduce un nou mod auto pentru Claude Code, permițând AI-ului să decidă acțiunile sigure, cu măsuri de siguranță. Disponibil pentru utilizatorii Enterprise și API.


Puncte Cheie

  • Anthropic introduce un nou mod auto pentru Claude Code.
  • Modificarea permite AI-ului să decidă acțiunile sigure, cu limite.
  • Modul auto este în prezent în faza de testare și nu este un produs final.
  • Caracteristica verifică acțiunile pentru comportament riscant și injecții de prompt.
  • Disponibil pentru utilizatorii Enterprise și API, recomandat în medii izolate.

Introducerea unui nou mod auto pentru Claude Code

Pentru dezvoltatorii care utilizează inteligența artificială, procesul de "vibe coding" implică adesea supravegherea fiecărei acțiuni sau riscul de a lăsa modelul să funcționeze fără control. Anthropic a anunțat că cea mai recentă actualizare a Claude Code vizează eliminarea acestei dileme, permițând AI-ului să decidă singur care acțiuni sunt sigure de realizat, dar cu anumite limite. Această mișcare reflectă o schimbare mai largă în industrie, pe măsură ce instrumentele AI sunt din ce în ce mai concepute să acționeze fără a aștepta aprobarea umană.

Echilibrarea vitezei cu controlul

Provocarea majoră este găsirea unui echilibru între viteză și control. Prea multe măsuri de siguranță pot încetini procesele, în timp ce prea puține pot face sistemele riscante și imprevizibile. Noul "mod auto" de la Anthropic, aflat acum în faza de previzualizare a cercetării, este cel mai recent efort al companiei de a naviga această provocare. Modul auto folosește măsuri de siguranță AI pentru a revizui fiecare acțiune înainte de a fi executată, verificând pentru comportamente riscante pe care utilizatorul nu le-a solicitat și pentru semne de injecție de prompt, un tip de atac în care instrucțiuni malițioase sunt ascunse în conținutul procesat de AI.

Extinderea funcționalităților Claude Code

Această funcționalitate este, în esență, o extindere a comenzii existente "dangerously-skip-permissions" din Claude Code, care încredințează toate deciziile AI-ului, dar cu un strat de siguranță adăugat. Caracteristica se bazează pe un val de instrumente de codare autonome de la companii precum GitHub și OpenAI, care pot executa sarcini în numele unui dezvoltator. Totuși, Anthropic duce lucrurile un pas mai departe, mutând decizia de a cere permisiune de la utilizator la AI.

Detalii despre siguranța modului auto

Anthropic nu a detaliat criteriile specifice pe care stratul său de siguranță le folosește pentru a distinge acțiunile sigure de cele riscante, un aspect pe care dezvoltatorii vor dori probabil să îl înțeleagă mai bine înainte de a adopta pe scară largă această funcționalitate. Modul auto vine după lansarea de către Anthropic a Claude Code Review, un recenzor automat de cod conceput pentru a detecta bug-uri înainte ca acestea să intre în baza de cod, și Dispatch for Cowork, care permite utilizatorilor să trimită sarcini agenților AI pentru a le gestiona în numele lor.

Implementarea și recomandări

Modul auto va fi disponibil pentru utilizatorii Enterprise și API în zilele următoare. Compania afirmă că în prezent funcționează doar cu Claude Sonnet 4.6 și Opus 4.6 și recomandă utilizarea noii funcționalități în "medii izolate", adică setări sandbox separate de sistemele de producție, pentru a limita eventualele daune dacă ceva nu merge bine.

Distribuie acest articol

Abonează-te la StiriX

Primește cele mai noi știri tech direct pe email.