Secondo quanto riferito, Microsoft sta sviluppando un nuovo modello di intelligenza artificiale interno, ed è la prima volta da quando ha investito pesantemente in OpenAI con oltre 10 miliardi di dollari per utilizzare i modelli di intelligenza artificiale della startup nei propri prodotti e rimanere al passo finché i concorrenti non raggiungono.
MAI-1 è un progetto interno di Microsoft
Si dice che il nuovo modello sia abbastanza grande da competere con quelli di Alphabet, che è la società madre di Google, e OpenAI.
Il nuovo modello si chiama MAI-1 internamente a Microsoft e Mustafa Suleyman recentemente assunto è a capo del progetto, secondo un rapporto di The Information. È lo stesso ragazzo che ha co-fondato DeepMind, che è stata successivamente acquistata da Google, e molto recentemente è stato CEO di un'altra startup chiamata Inflection.
Ma nel rapporto si afferma che non si tratta del modello AI di Inflection , ma la società potrebbe utilizzare i set di dati di addestramento e altre tecnologie correlate della startup proprio per questo modello Microsoft, che è completamente separato da quelli che Inflection ha già rilasciato.
Il punto da ricordare qui è che Microsoft, prima di assumere Suleyman, ha stanziato 650 milioni di dollari per acquistare tutti i diritti di Inflection e ha anche assunto la maggior parte dei membri del suo staff.
Si dice che MAI-1 sarà un animale completamente diverso e molto più grande dei modelli Microsoft più piccoli che ha addestrato in precedenza e che sono di origine gratuita. Secondo chi ha familiarità con l’argomento, il modello avrà bisogno di più risorse di calcolo e dati di addestramento, quindi sarà sicuramente più costoso da sviluppare.
Un'impresa molto più grande
Per fare un confronto, i modelli più piccoli formati dalle società Mistral e Meta hanno 70 miliardi di parametri, che possono essere approssimativamente chiamati una scala per valutare le dimensioni di un modello AI, e si dice che il GPT4 di OpenAI abbia più di 1 trilione di parametri. E MAI-1 avrà circa 500 miliardi di parametri.
Ma i parametri da soli non sono una caratteristica affidabile per misurare un modello di intelligenza artificiale, poiché si dice che alcune recenti serie Phi di modelli open source di Microsoft abbiano prestazioni alla pari con modelli 10 volte più grandi.
Il Phi-3 Mini, rilasciato il mese scorso da Microsoft, è una delle serie di dimensioni più piccole e l'azienda mira a rivolgersi a una base di clienti più ampia con le sue opzioni più economiche.
È stato inoltre riferito che Microsoft si è procurata un gran numero di server, o meglio cluster di server che hanno processori grafici Nvidia incorporati insieme a enormi quantità di set di dati per addestrare il modello.
Anche se quando Microsoft ha annunciato che stava inserendo il chatbot ChatGPT di OpenAI nella sua ricerca su Bing, molti analisti lo hanno definito un "momento iPhone" ed erano troppo ottimisti sul suo impatto, inizialmente ha dato solo l'1 o il 2% in più di quota di ricerca a Bing rispetto a Google.
Tuttavia, il rapporto più recente del Search Engine Journal di aprile mostra che per la prima volta la quota di ricerca di Google è scesa di oltre il 4% in un solo mese mentre i concorrenti Bing e Yahoo hanno guadagnato quote specificamente nel mercato statunitense.
Ma sembra che abbia iniziato ad avere senso per Microsoft investire miliardi in OpenAI e ora, con i propri modelli Phi, ha senso investire in un modello più grande.