fbpx
Tech

Anthropic annuncia il chatbot Claude 2.1, due volte più potente di GPT-4 Turbo

Potrà “digerire” in un solo colpo testi di 500 pagine

Sono giorni di grande fermento per l’intelligenza artificiale e per le aziende che hanno messo o stanno mettendo a punto i chatbot conversazionali più avanzati.

Sul balletto dei vertici di OpenAI abbiamo puntualmente scritto in diversi articoli. E dopo rivoluzioni e controrivoluzioni, ora sembra che Sam Altman sia tornato stabilmente al timone, con un consiglio di amministrazione quasi del tutto rinnovato.

Nella vicenda OpenAI è in qualche modo entrata anche Anthropic, perché secondo indiscrezioni il vecchio board dell’azienda avrebbe contattato Dario Amodei, fondatore e ad di Anthropic, nell’ipotesi di una fusione tra le aziende. Con lo stesso Amodei che avrebbe avuto il ruolo di Ceo.

Fusione, come sappiamo, non avvenuta. E anzi, la rivalità sul terreno dell’IA è stata rinverdita da una notizia delle scorse ore: Anthropic ha annunciato il suo potentissimo chatbot Claude 2.1.

intelligenza artificiale 2

Anthropic annuncia Claude 2.1

L’annuncio è stato dato da Anthropic con un lungo articolo pubblicato sul sito ufficiale nella giornata di martedì 21 novembre.

In cui possiamo leggere della disponibilità del nuovo modello linguistico di grandi dimensioni (LLM, Large Language Model) Claude 2.1.

E con un linguaggio un po’ criptico (ma vi spiegheremo tutto a breve) scopriamo che il chatbot avrà una finestra di contesto di 200.000 token e una “significativa riduzione del tasso di allucinazione”.

Capire meglio il significato di queste frasi ci aiuterà a scoprire le potenzialità di Claude 2.1.

Claude 2.1 due volte più potente di GPT-4 Turbo

In questo contesto, il token è il “peso” di una parola o di uno spazio tra due parole. È, in estrema sintesi, l’unità di misura linguistica dei Large Language Model.

Quando, al DevDay del 6 novembre, OpenAI ha presentato in pompa magna il suo nuovo GPT-4 Turbo, aveva parlato di “contesto da 128K”, cioè 128.000 token.

Bene: la finestra di contesto di Claude 2.1 è di 200.000 token, dunque quasi il doppio di quella del più avanzato chatbot di casa OpenAI (e il doppio della versione precedente di Claude). Tradotto in parole ancora più semplici, un contesto di 200.000 token permette al software di elaborare in un solo prompt testi di circa 150.000 parole, ossia di 500 pagine. In concreto, con un unico comando Claude 2.1 potrà assimilare testi come l’Odissea.

Più intuitivo il significato della locuzione tasso di allucinazione. Con cui si intende una risposta data da un modello linguistico di grandi dimensioni in modo inatteso e non conforme ai dati assimilati durante l’addestramento. Abbiamo letto di diverse occasioni in cui i chatbot hanno clamorosamente inventato risposte, poi rivelatesi sbagliate. Inutile aggiungere la pericolosità di simili errori. Ebbene: Claude 2.1 dimezza il tasso di allucinazione.

Le dichiarazioni dell’azienda

Nella nota si legge: “L’elaborazione di un messaggio di 200mila token di lunghezza è un’impresa complessa e una novità assoluta nel settore. Siamo entusiasti di mettere questa nuova potente funzionalità nelle mani dei nostri utenti.

A Claude bastano pochi minuti per portare a compimento attività che in genere richiederebbero ore di impegno all’uomo. Ci aspettiamo che la latenza diminuisca sostanzialmente man mano che la tecnologia avanza”.

Il lancio di Claude 2.1 e non solo

Da più parti si è notato che i tempi dell’annuncio di Claude 2.1 da parte di Anthropic possono non essere stati casuali.

Hanno coinciso infatti con un momento di crisi di OpenAI. Come controprova, si pensi alle molte dichiarazioni rilasciate in queste ore da parte di diverse altre aziende impegnate nella produzione di software di IA. Elon Musk, ad esempio, ha fatto sapere che il suo software Grok sarà disponibile la prossima settimana per tutti gli utenti Premium+ di X. E poi, Stability AI ha lanciato Stable Video Diffusion, per realizzare video di intelligenza artificiale partendo da prompt testuali. Inoltre, Google ha annunciato che Google Bard potrà fornire informazioni sui video di YouTube.

Offerta

Gli investimenti in Anthropic

Ricordiamo che Anthropic è stata fondata da due fratelli di origini italiane, Dario e Daniela Amodei, che prima avevano lavorato proprio per OpenAI.

L’azienda dei fratelli Amodei ultimamente ha attratto importantissime realtà del settore. Se Google ha investito 2 miliardi di euro, l’impegno economico di Amazon è stato doppio, 4 miliardi di euro.

Nell’ultimo anno, Anthropic ha ricevuto 7 miliardi di dollari di finanziamento, ma OpenAI ne ha ottenuti 13 (a partire dal 2019) solo da Microsoft.

Si attende un futuro prossimo di scintille tra i due competitor. Sarà una sfida all’ultimo token.

Da non perdere questa settimana su Techprincess

🍎Nuovi iPad e accessori: cosa aspettarsi dall’evento Apple del 7 maggio
🛒 Le migliori offerte della Amazon Gaming Week
🎮
L’emulatore Nintendo Delta sta per arrivare su iPad
🪪Social card “Dedicata a te”:cos’è e come si potrà utilizzare il bonus da 460 euro
✒️ La nostra imperdibile newsletter Caffellattech! Iscriviti qui 
🎧 Ma lo sai che anche Fjona ha la sua newsletter?! Iscriviti a SuggeriPODCAST!
📺 Trovi Fjona anche su RAI Play con Touch - Impronta digitale!
💌 Risolviamo i tuoi problemi di cuore con B1NARY
🎧 Ascolta il nostro imperdibile podcast Le vie del Tech
💸E trovi un po' di offerte interessanti su Telegram!

Claudio Bagnasco

Claudio Bagnasco è nato a Genova nel 1975 e dal 2013 vive a Tortolì. Ha scritto e pubblicato diversi libri, è co-fondatore e co-curatore del blog letterario Squadernauti. Prepara e corre maratone con grande passione e incrollabile lentezza. Ha raccolto parte delle sue scritture nel sito personale claudiobagnasco.com

Ti potrebbero interessare anche:

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *

Back to top button