SubQuery presenta l’hosting di inferenza AI decentralizzato al Web3 Summit di Berlino

SubQuery presenta l'hosting di inferenza AI decentralizzato al Web3 Summit di Berlino

Durante il Web3 Summit di oggi a Berlino, SubQuery ha fatto un annuncio significativo, introducendo la sua ultima innovazione: l'hosting di inferenza AI decentralizzato. Durante una dimostrazione dal vivo, James Bayly, COO di SubQuery, ha mostrato il funzionamento senza interruzioni dell'ultimo modello LLama sulla rete di test interna di SubQuery. La rete, costituita da una rete completamente decentralizzata di Operatori di Nodo, si è rivelata efficiente e affidabile.

SubQuery ha una visione chiara di consentire agli sviluppatori di plasmare il futuro abbracciando la decentralizzazione. L'azienda è incaricata di sviluppare la prossima generazione di applicazioni Web3 per un'ampia base di utenti, con la decentralizzazione come principio guida.

La rete SubQuery funge da sofisticato livello di infrastruttura che supporta questa visione. Attualmente supporta indicizzatori di dati decentralizzati e RPC, componenti essenziali per gli sviluppatori che creano applicazioni decentralizzate (dApp). SubQuery si è affermata come alternativa affidabile ai servizi centralizzati, fornendo una rete inclusiva che consente a chiunque di unirsi come operatore del nodo o delegante.

Il crescente riconoscimento dell’impatto dell’intelligenza artificiale su vari settori, compreso il Web3, sta diventando sempre più evidente. SubQuery ha seguito da vicino questi sviluppi e ha lavorato diligentemente dietro le quinte per integrare le capacità di intelligenza artificiale nella sua piattaforma decentralizzata. Il Web3 Summit di Berlino ci fornisce una piattaforma ideale per svelare questa nuova capacità e mostrarla in azione”, ha affermato James Bayly.

SubQuery è incentrato sull'inferenza AI, il processo di utilizzo di modelli pre-addestrati per fare previsioni su nuovi dati, piuttosto che sull'addestramento del modello. "Sebbene esistano servizi commerciali che offrono hosting di inferenza per modelli personalizzati, ne esistono pochi nello spazio Web3", ha spiegato James. "La nostra rete decentralizzata è ideale per l'hosting di modelli IA affidabili e a lungo termine."

Attualmente, il mercato dell’inferenza dell’intelligenza artificiale è dominato da grandi fornitori di servizi cloud centralizzati che applicano tariffe elevate e spesso utilizzano i dati degli utenti per migliorare i propri modelli proprietari. "Fornitori come OpenAI e Google Cloud AI non solo sono costosi, ma sfruttano anche i tuoi dati per migliorare le loro offerte closed-source", ha osservato James. SubQuery si impegna a fornire un'alternativa economica e open source per l'hosting di modelli IA di produzione. "Il nostro obiettivo è consentire agli utenti di implementare un modello LLM pronto per la produzione attraverso la nostra rete in soli 10 minuti", ha aggiunto.

“Affidarsi a modelli di intelligenza artificiale closed-source rischia di consolidare il potere nelle mani di poche grandi aziende, creando un ciclo che perpetua il loro dominio”, ha avvertito James. “Eseguendo l’inferenza dell’intelligenza artificiale su una rete decentralizzata, garantiamo che nessuna singola entità possa controllare o sfruttare i dati degli utenti. I prompt sono distribuiti tra centinaia di operatori di nodi, garantendo la privacy e supportando un ecosistema open source”.

La rete SubQuery mira a offrire hosting all'avanguardia per i modelli di intelligenza artificiale open source più aggiornati, rendendo disponibili per Web3 servizi di intelligenza artificiale scalabili e facilmente accessibili. SubQuery mira a potenziare una rete diversificata di operatori di nodi indipendenti abbracciando un approccio guidato dalla comunità che consente l'inferenza AI decentralizzata su larga scala.

Inizia a scrivere il termine ricerca qua sopra e premi invio per iniziare la ricerca. Premi ESC per annullare.

Torna in alto