Cohere lansează modele AI multilingve deschise
Modelele Tiny Aya suportă peste 70 de limbi și funcționează offline
Cohere a lansat modelele AI multilingve Tiny Aya, care suportă peste 70 de limbi și funcționează offline. Modelele sunt disponibile pe platforme precum HuggingFace.
Puncte Cheie
- Cohere a lansat o nouă familie de modele multilingve numite Tiny Aya.
- Modelele sunt open-weight și suportă peste 70 de limbi.
- Pot funcționa pe dispozitive obișnuite fără conexiune la internet.
- Modelele au fost antrenate pe un cluster de 64 de GPU-uri H100 de la Nvidia.
- Disponibile pe platforme precum HuggingFace și Cohere Platform.
Lansarea modelelor multilingve Tiny Aya
Compania de inteligență artificială Cohere a anunțat lansarea unei noi familii de modele multilingve, denumite Tiny Aya, în cadrul Summitului India AI. Aceste modele sunt open-weight, ceea ce înseamnă că codul lor sursă este disponibil public pentru oricine dorește să-l folosească sau să-l modifice. Modelele suportă peste 70 de limbi și sunt capabile să ruleze pe dispozitive obișnuite, cum ar fi laptopurile, fără a necesita o conexiune la internet.
Modelele au fost dezvoltate de Cohere Labs, brațul de cercetare al companiei, și includ suport pentru limbile sud-asiatice, cum ar fi bengali, hindi, punjabi, urdu, gujarati, tamil, telugu și marathi. Acestea sunt concepute pentru a oferi o acoperire multilingvă largă și pentru a fi puncte de plecare flexibile pentru adaptare și cercetare ulterioară.
Detalii tehnice și accesibilitate
Modelul de bază conține 3,35 miliarde de parametri, ceea ce reflectă dimensiunea și complexitatea sa. Cohere a lansat, de asemenea, TinyAya-Global, o versiune ajustată pentru a răspunde mai bine comenzilor utilizatorilor, destinată aplicațiilor care necesită suport lingvistic extins. Alte variante regionale includ TinyAya-Earth pentru limbile africane, TinyAya-Fire pentru limbile sud-asiatice și TinyAya-Water pentru Asia Pacific, Vestul Asiei și Europa.
«Această abordare permite fiecărui model să dezvolte o bază lingvistică mai puternică și nuanțe culturale, creând sisteme care par mai naturale și mai de încredere pentru comunitățile pe care sunt destinate să le servească», a declarat compania într-un comunicat.
Utilizare și disponibilitate
Cohere a subliniat că aceste modele, antrenate pe un singur cluster de 64 de GPU-uri H100 de la Nvidia folosind resurse de calcul relativ modeste, sunt ideale pentru cercetători și dezvoltatori care construiesc aplicații pentru audiențe care vorbesc limbi native. Modelele sunt capabile să ruleze direct pe dispozitive, permițând dezvoltatorilor să le folosească pentru traduceri offline. Compania a dezvoltat software-ul său de bază pentru a se potrivi utilizării pe dispozitive, necesitând mai puțină putere de calcul decât majoritatea modelelor comparabile.
În țări lingvistic diverse, precum India, această capabilitate prietenoasă cu utilizarea offline poate deschide o gamă diversă de aplicații și cazuri de utilizare fără a necesita acces constant la internet.
Modelele sunt disponibile pe platforma populară HuggingFace, precum și pe Cohere Platform. Dezvoltatorii le pot descărca de pe HuggingFace, Kaggle și Ollama pentru implementare locală. Compania va lansa, de asemenea, seturi de date de antrenament și evaluare pe HuggingFace și intenționează să publice un raport tehnic detaliind metodologia de antrenament.
CEO-ul startup-ului, Aidan Gomez, a declarat anul trecut că compania intenționează să devină publică «în curând». Potrivit CNBC, compania a încheiat anul 2025 cu un venit anual recurent de 240 de milioane de dolari, cu o creștere de 50% de la un trimestru la altul pe parcursul anului.
Abonează-te la StiriX
Primește cele mai noi știri tech direct pe email.
