
L’elaborazione decentralizzata è diventata sempre più importante poiché le industrie richiedono maggiore flessibilità e autonomia oltre la portata dei tradizionali giganti del cloud. Fluence, co-fondata da Evgeny Ponomarev, sta sfidando coraggiosamente il dominio di AWS, Azure e Google Cloud con il suo concetto di “cloudless computing”, ovvero aggregando la potenza di calcolo globale attraverso una rete aperta e decentralizzata.
BeInCrypto ha intervistato Ponomarev per esplorare la logica alla base di questo approccio rivoluzionario, discutendo degli ostacoli affrontati, delle reazioni del settore, della tokenomica e del futuro delle infrastrutture decentralizzate. Le strategie condivise di Ponomarev che Fluence utilizza per garantire risparmi sui costi, rafforzare la governance della comunità e integrarsi con i protocolli Web3.
Definizione del cloudless computing e delle lacune del mercato
In Fluence lavoriamo nel campo dell'informatica decentralizzata. Abbiamo creato quella che chiamiamo piattaforma “cloudless”, un termine che usiamo per descrivere la nostra alternativa ai tradizionali provider cloud come AWS, Azure o Google Cloud. Essenzialmente, si tratta di una rete di infrastruttura fisica decentralizzata (DePIN) che offre agli sviluppatori e alle aziende l'accesso alle risorse di elaborazione senza fare affidamento su servizi cloud centralizzati.
Consideralo come l'Uber o l'Airbnb del cloud. Invece di fare affidamento su un unico fornitore, la nostra piattaforma aggrega risorse di elaborazione da un'ampia gamma di fonti indipendenti. È un protocollo open source e senza autorizzazione che consente agli sviluppatori di attingere a queste risorse.
Settori, casi d'uso e focus Web3
Al momento, ci rivolgiamo principalmente al mercato Web3, che rappresenta l'obiettivo principale di questa conferenza. Nello spazio Web3, un caso d'uso principale prevede l'esecuzione di nodi. Che si tratti di livello uno, livello due, roll-up o altre soluzioni blockchain, si basano tutti sui nodi, essenzialmente istanze di database.
Le persone gestiscono questi nodi nel cloud, su bare metal o, a volte, anche su personal computer. Ciò che offriamo è un'alternativa affidabile alla tradizionale infrastruttura cloud per l'esecuzione di questi carichi di lavoro. Nello specifico, gli operatori dei nodi rappresentano per noi un segmento di mercato critico all'interno dell'ecosistema Web3.
Ma in sostanza, puoi utilizzare questa piattaforma per eseguire qualsiasi tipo di carico di lavoro come i cloud tradizionali, siano essi backend, database, server di gioco, app Web e altro ancora.
Differenziazione di Fluence nello spazio DePIN
Come ho detto, ci stiamo concentrando esclusivamente sull’informatica. In DePIN puoi vedere un'ampia varietà di persone e progetti che fanno cose diverse. Ma l'intero modello è che fanno crowdsourcing di risorse da più fornitori, magari come consumatori, dispositivi per utenti finali o aziende più professionali. Li stanno aggregando, confezionandoli in prodotti e trovando loro clienti.
Per noi, l’obiettivo è fornire risorse di calcolo. Ma quando fornisci l'elaborazione, c'è anche un componente di archiviazione: dettagli che puoi raggruppare in diversi servizi cloud. La nostra direzione principale, tuttavia, è quella di introdurre infrastrutture informatiche, perché vediamo una domanda enorme e crescente, soprattutto con l’avvento dell’intelligenza artificiale, per le risorse informatiche.
Quindi iniziamo a fornire elaborazione per gli operatori dei nodi, ma poi ci allarghiamo molto e copriremo anche i casi d'uso dell'intelligenza artificiale.
Sfide nella creazione di un'orchestrazione decentralizzata
La sfida nella creazione di un'orchestrazione decentralizzata deriva dai nostri primi esperimenti con varie soluzioni per determinare il giusto approccio all'infrastruttura cloud.
Ad un certo punto, stavamo cercando di avere un'orchestrazione peer-to-peer di diversi calcoli che si verificano su hardware, nodi o dispositivi utente diversi. Ma poi ci siamo resi conto che mancavano soluzioni di livello inferiore, come la virtualizzazione di base delle risorse. Quindi abbiamo deciso di consegnare prima questo, e questo è ciò che abbiamo ora.
E poi torniamo all'orchestrazione. Ma essenzialmente, l’orchestrazione riguarda la riduzione dei vincoli al fornitore. Attualmente, i grandi fornitori di servizi cloud dominano il mercato e molte aziende si affidano interamente a un unico fornitore per eseguire le proprie applicazioni. Ciò crea il cosiddetto “rischio della piattaforma” o “rischio del fornitore”. Se il fornitore decide di eliminare la piattaforma, vietare o adeguare i prezzi, l’intera attività potrebbe essere a rischio.
Pertanto, ogni volta che utilizzi una piattaforma decentralizzata anziché un cloud centralizzato, la continuità e la sostenibilità del tuo business sono più sicure.
Tokenomics FLT e incentivi di rete
Il token FLT svolge un ruolo cruciale nel garantire la potenza di calcolo e l'hardware all'interno della rete. Fondamentalmente, qualsiasi nuovo hardware che viene aggiunto sul lato dell'offerta della rete deve essere investito dai possessori di token, e c'è un incentivo criptoeconomico per dimostrare che questo hardware è online, disponibile e ha determinate prestazioni.
Lo staking aiuta ad avere questo aspetto nel gioco, in cui i fornitori rischiano di perdere la propria quota se non riescono a rispettare i propri impegni in merito alla disponibilità e alle prestazioni dell'hardware. D’altro canto, i fornitori che mantengono con successo i propri impegni guadagnano premi di staking.
Stiamo inoltre esplorando ulteriori modi per migliorare l'utilità di FLT. Ad esempio, abilitando i prestiti garantiti in FLT, potremmo consentire ai fornitori di contrarre prestiti in cambio dei loro premi simbolici. Ciò consentirebbe loro di acquisire rapidamente nuovo hardware, collegarlo alla rete e guadagnare più premi. Nel corso del tempo, possono prendere in prestito a fronte di questi premi per crescere ancora più velocemente.
E dal lato del cliente, lo si può fare anche sovvenzionando i prezzi per i clienti. In futuro introdurremo altre meccaniche simili.
Reazioni degli sviluppatori e delle aziende all'elaborazione decentralizzata
Dal lato del cliente, ciò che è importante per noi è costruire un prodotto che offra un'esperienza simile alle piattaforme cloud centralizzate. È decentralizzato, ma l'esperienza dell'utente rimane la stessa.
Ecco perché gli sviluppatori sono molto aperti e positivi nei nostri confronti: è molto facile per loro cambiare. Se hanno carichi di lavoro nel cloud, possono semplicemente ospitarli qui. Non c'è niente di speciale o insolito nell'esperienza dello sviluppatore.
Distribuisci semplicemente i tuoi carichi di lavoro sulle nostre macchine virtuali e server virtuali, utilizzando chiavi SSH e processi di autorizzazione standard. Essenzialmente, l’esperienza è simile.
Naturalmente, si sostiene sempre che si tratta di una nuova piattaforma – è una startup – quindi è richiesto un certo livello di fiducia.
È una nuova attività. Quando si passa da un'azienda grande e consolidata con 20 anni di storia a una nuova, è naturalmente coinvolto un fattore di fiducia. Stiamo lavorando per colmare questo divario essendo presenti ovunque, rimanendo aperti e trasparenti, fornendo supporto rapido e persino offrendo assistenza finanziaria quando necessario, soprattutto per portare progetti più piccoli sulla nostra piattaforma.
Fa tutto parte di un tipico processo di onboarding.
Struttura dei costi e vantaggi dei prezzi
Sì, è divertente quante persone non si rendano conto di quanto addebitano le piattaforme cloud in aggiunta all'economia effettiva dell'hardware. In sostanza, i margini nel business del cloud sono enormi.
Se acquisti semplicemente un server direttamente da un produttore e gestisci un modello di business in cui il server si ripaga in due o tre anni, puoi offrire prezzi molte volte inferiori a quelli addebitati dai tradizionali fornitori di servizi cloud. Ciò che fanno pagare è in gran parte il loro marchio, i crediti “gratuiti” che offrono – che alla fine recuperano addebitando di più – e centinaia di servizi aggiuntivi che cercano di spingere, portandoti a pagare ancora di più.
Quello che facciamo è diverso: offriamo un protocollo senza autorizzazione gestito da un DAO on-chain. Non prendiamo alcuna commissione. Gli aspetti economici si basano esclusivamente sul lato del fornitore, con margini ragionevoli, non eccessivi.
Permettiamo ai fornitori di accedere direttamente alla base clienti, in modo che non debbano gestire autonomamente le vendite. Ecco perché si sentono a proprio agio nell'operare con margini più ridotti: il loro unico obiettivo è gestire l'hardware.
Prendiamo semplicemente il prezzo più basso offerto e lo passiamo direttamente al cliente: senza intermediari e senza margini aggiuntivi. Questa è tutta la magia: riguarda esclusivamente l'economia reale dell'hardware e del calcolo.
Partnership Web3 e AI per uno stack decentralizzato
Abbiamo una pipeline abbastanza significativa di aziende nello spazio Web3. Si tratta principalmente di operatori di nodi o aziende che offrono il cosiddetto "node-as-a-service", nel senso che forniscono ai propri utenti finali la possibilità di implementare nodi per diversi protocolli con un solo clic.
Li supportiamo con un'infrastruttura di elaborazione nascosta: essenzialmente, questi nodi sono in esecuzione sui nostri server. Abbiamo diversi nomi in cantiere. Non sono sicuro di poterli ancora condividere, ma li annunceremo presto.
Supporto di carichi di lavoro AI/LLM e roadmap GPU
Al momento ci concentriamo solo sui server CPU, che non sono adatti per l'inferenza o l'addestramento dell'intelligenza artificiale. Tuttavia, stiamo pianificando di aggiungere presto le GPU.
I nostri fornitori hanno già molte GPU e chiedono costantemente se possono collegarle. Stiamo lavorando per garantire che, quando offriremo le GPU, queste saranno disponibili ai migliori prezzi sul mercato. Una volta che tutto sarà pronto, pubblicheremo le offerte e le renderemo disponibili agli utenti.
In sostanza, per integrare LLM e supportare casi d'uso di inferenza, tutto ciò di cui hai veramente bisogno è l'accesso alla capacità della GPU e, idealmente, alcuni livelli UX aggiuntivi per semplificare l'esperienza dello sviluppatore. Questo è già sulla nostra tabella di marcia.
L'intelligenza artificiale in generale sta determinando un'enorme domanda di hardware GPU, ma sta anche aumentando la domanda di hardware CPU, perché attività come l'elaborazione dei dati, l'etichettatura dei dati e la preparazione del set di dati sono tutti passaggi critici prima dell'addestramento di un modello.
Esistono anche carichi di lavoro noti come agenti AI, che sono essenzialmente bot che utilizzano modelli AI. L'esecuzione di questi bot richiede principalmente server CPU, mentre la chiamata o l'interazione con i modelli richiede server GPU.
Pertanto, sono sempre necessari sia server CPU che server GPU per supportare completamente questi tipi di applicazioni.
Governance di DAO e coinvolgimento della comunità
Abbiamo un modello DAO abbastanza standard. Si basa sul voto a catena, con determinate soglie in vigore. Ad esempio, è necessario disporre di una quantità delegata di potere di voto per creare una proposta e una proposta deve ricevere un numero minimo di voti per essere approvata.
L'esecuzione avviene on-chain, ma disponiamo anche di una struttura legale off-chain. Un comitato di governance è responsabile della supervisione e della facilitazione del processo di esecuzione.
Seguiamo un modello in cui il comitato di governance viene eletto dalla comunità ogni uno o due anni.
Nel complesso, questo modello è abbastanza standard: non c'è nulla di particolarmente nuovo o insolito in esso. È un tipico modello DAO Web3 in cui il voto è ponderato in base ai token: le persone votano in base al numero di token in loro possesso.
Decentralizzazione per l'impresa: SLA, Certificazione e Fiat
Gli utenti aziendali in genere richiedono tre cose fondamentali: in primo luogo, un accordo sul livello di servizio (SLA), che garantisca la disponibilità dei servizi.
In secondo luogo, hanno bisogno che i fornitori dispongano di certificazioni pertinenti: standard di sicurezza e conformità come SOC 2 o ISO 27001. La maggior parte dei nostri fornitori possiede già queste certificazioni e attualmente ci stiamo concentrando sulla collaborazione principalmente con fornitori di hardware che soddisfano questi standard.
In terzo luogo, ovviamente, vogliono pagare in denaro fiat, poiché sono imprese che operano nel mondo Web2, non in Web3. Ci stiamo assicurando di disporre di tutti i sistemi necessari per integrare con successo le grandi imprese dallo spazio Web2.
Stiamo facendo buoni progressi in questo settore. Quando si tratta di SLA, esistono diversi modi per affrontarli. Un approccio è quello di stipulare un accordo legale con l’impresa, delineando chiaramente e garantendo la disponibilità del servizio.
Stiamo anche lavorando a uno SLA on-chain, che funzionerebbe essenzialmente come un accordo legale. In questo modello, i fornitori si impegnerebbero a garantire un certo livello di disponibilità del servizio ai clienti.
Tutto verrebbe registrato in uno smart contract, con regole chiare: ad esempio, se un fornitore non dovesse rispettare uno SLA del 99%, sarebbe tenuto a rimborsare una parte del pagamento al cliente.
Per quanto riguarda i pagamenti fiat, possiamo fare solo un certo limite: è una limitazione di cui siamo consapevoli.
Se le imprese vogliono pagare in valuta fiat, lo accettiamo. Quindi convertiamo le valute fiat in stablecoin e finanziamo i corrispondenti contratti intelligenti.
Questo passaggio è inevitabile al momento: non abbiamo ancora trovato un modo per aggirarlo. Tuttavia, riteniamo che in futuro l’adozione delle stablecoin continuerà a crescere, il che aiuterà a risolvere questo problema, almeno in parte.
Inevitabilità del cloud decentralizzato e futuro di Fluence
Non credo che ci sia stato un solo momento in cui ci siamo resi conto che questo doveva esistere. È stata più la crescita complessiva del movimento Web3 e delle criptovalute a renderlo chiaro.
I modelli decentralizzati hanno dimostrato che talvolta possono essere più efficienti e ridurre significativamente le barriere all’ingresso per molti servizi e tecnologie.
Soprattutto se combinato con la drammatica crescita della domanda di elaborazione guidata dall’intelligenza artificiale, riteniamo che sia essenziale fornire un accesso facile e conveniente alle risorse di elaborazione a un pubblico molto più ampio, cosa che le piattaforme cloud tradizionali spesso impediscono.
I loro modelli prevedono requisiti KYC, barriere per le carte di credito e l’obbligo primario di servire gli azionisti. Al contrario, offriamo un'alternativa: un modello di infrastruttura senza autorizzazione gestito da DAO.
Considerazioni finali
Stiamo invitando le persone a partecipare alla nostra prossima beta per i server virtuali e stiamo attualmente raccogliendo applicazioni: puoi iscriverti sul nostro sito web.
Siamo entusiasti di vedere più persone provarlo, condividere il loro feedback e aiutarci a far crescere questa infrastruttura informatica aperta e senza autorizzazione per l'umanità.
Il post di Evgeny Ponomarev su Fluence: Pioneering Cloudless Computing e Decentralized Infrastructure è apparso per la prima volta su BeInCrypto .