Amazon ha creato un “team centrale” per lavorare sui suoi modelli linguistici più ambiziosi. L’azienda ha messo in piedi un super-gruppo per lavorare sui suoi LLM. Il team sarà guidato da Rohit Prasad, responsabile scientifico dell’assistente digitale Alexa di Amazon, che riferirà direttamente all’amministratore delegato Andy Jassy. La notizia è stata riportata da Insider.
Amazon si unisce così alla schiera di giganti tecnologici che si stanno dedicando all’AI generativa: Google, Microsoft e Meta.
In una email, Jassy ha dichiarato che Prasad guiderà i suoi sforzi per i modelli linguistici di grandi dimensioni “più ampi” e il suo gruppo agirà come “team centrale”.
“Mentre abbiamo costruito diversi LLM all’interno dell’azienda e ne abbiamo altri in fase di realizzazione, stiamo per riunire alcune risorse a livello centrale per costruire i nostri LLM più ambiziosi”, ha scritto Jassy.
Amazon sta realizzando un LLM più grande e capace per Alexa
Ad aprile, AWS ha presentato Bedrock, che rende disponibili i modelli fondamentali di AI generativa attraverso un’API. Include modelli di Stability AI, AI121 Labs e Anthropic. Bedrock offrirà anche i modelli Titan di Amazon. Un mese dopo, Jassy ha rivelato che Amazon sta costruendo un modello linguistico “molto più grande e molto più generalizzato e capace” per Alexa, nel tentativo di migliorare l’esperienza dei clienti in tutte le sue attività.
Nel 2022, Amazon ha presentato un modello linguistico da 20 miliardi di parametri chiamato Alexa Teacher Model 20B che supporta diverse lingue. I ricercatori dell’azienda hanno dichiarato che questo modello supera in linguistica GPT-3 di OpenAI, che ha 175 miliardi di parametri (GPT-4 dovrebbe avere 1,7 trilioni di parametri).