Flux impostato per implementare Project Mayhem: sicurezza nell’intelligenza artificiale con prove di lavoro utile

2
Flux impostato per implementare Project Mayhem: sicurezza nell'intelligenza artificiale con prove di lavoro utile

Flux è pronto a svelare un nuovo progetto sulla sua infrastruttura che garantirà che l’IA abbia un modello di verità per bilanciare la crescita esplosiva. Benvenuti al “Progetto Caos”.

InFlux Technologies ha annunciato che Flux, un importante fornitore di servizi cloud decentralizzati, ha recentemente svelato l’imminente rilascio di “Project Mayhem”. Non è più una novità che i rapidi progressi nell’intelligenza artificiale stiano ridefinendo il mondo come lo conosciamo. L’intelligenza artificiale offre un accesso più rapido alle informazioni e un approccio più solido alla risoluzione dei problemi, tra gli altri vantaggi. Innanzitutto, è stato ChatGpt, in tutto il suo splendore, a risolvere il lavoro universitario in pochi secondi, a scrivere codice per sviluppatori multi-tasking e persino a creare modelli di crescita aziendale per i professionisti del marketing. Non volendo essere battuti da OpenAI, altri giocatori duri si sono uniti alla corsa AI, Google ha rilasciato Bard e Microsoft ha rilasciato BingAI, tutti con possibilità entusiasmanti. Mayhem sarà un’applicazione open source che gira sulla rete decentralizzata di Flux, open source, e consente a persone e organizzazioni di rilevare contenuti generati dall’intelligenza artificiale come falsi profondi, creazione di contenuti e qualsiasi output di intelligenza artificiale.

La grande rovina dell’IA generativa

I deepfake sono media sintetici che sono stati manipolati digitalmente per sostituire la somiglianza di un’altra persona (nell’aspetto, nel linguaggio, ecc.). Il nome inizialmente aveva le sue radici nella tecnologia sottostante; apprendimento approfondito. Tuttavia, sebbene i deepfake siano relativamente recenti, l’enorme sofisticazione dell’intelligenza artificiale ne ha ora reso una preoccupazione legittima.

Nel 2019, l’amministratore delegato di un’azienda energetica con sede nel Regno Unito ha perso circa 220.000 euro a causa di una chiamata fittizia che ha impersonato il suo capo. Ancora più recentemente, il mese scorso, una traccia generata dall’intelligenza artificiale con i deep fake vocali di Drake e Weeknd è stata rimossa dalle piattaforme di streaming. Quando ciò sarebbe accaduto, tuttavia, la musica aveva già accumulato oltre 8,5 milioni di visualizzazioni dai fan di entrambi gli artisti. Ciò ha introdotto nuove preoccupazioni sulla violazione dei contenuti.

La ricerca è un’altra area in cui è essenziale proteggere l’integrità dei contenuti. L’intelligenza artificiale potrebbe presumibilmente essere utilizzata per facilitare il processo di citazione di articoli rilevanti per l’argomento di interesse. Tuttavia, un numero allarmante di utenti di ChatGPT, ad esempio, ha evidenziato la tendenza del chatbot AI a sputare “allucinazioni”. Si tratta di riferimenti ad articoli e documenti che non esistono o, in altri casi, non hanno nulla in comune con il argomento di attenzione. Certo, ci sono state altre volte in cui l’IA ha messo tutto in fila. Ma come fai a sapere esattamente quando il tuo fidato partner di IA è improvvisamente diventato “ladro”?

L’intelligenza artificiale generativa ha il potenziale per problemi di copyright e legali. La fonte dei dati dei contenuti AI generati potrebbe essere sconosciuta, portando alla violazione della proprietà intellettuale con gravi implicazioni legali. Inoltre, c’è la questione del potenziale per l’esplosione di fake news sul web. Questi, insieme alle preoccupazioni sulla privacy e sulla governance dei dati, hanno reso necessario un mezzo per rilevare con precisione i contenuti generativi dell’IA e distinguerli dalle fonti di informazioni autentiche.

Risolvere questo farà molto per aprire nuovi modi per affrontare le bufale sul web e anche per stroncare le attività criminali sul nascere. Mentre il mondo passa a quella che alla fine potrebbe essere l'”età d’oro dell’IA”, Flux offre un nuovo modo per differenziare l’autentico dal sintetico.

Benvenuti al Progetto Caos

Project Mayhem è un rilevatore di IA generativo che funziona sull’infrastruttura completamente decentralizzata di Flux. È progettato per valutare e identificare se i file di dati forniti sono contenuti originali o generati dall’intelligenza artificiale, contribuendo così a differenziare i media falsi profondi dai dati accurati. Con Project Mayhem, Flux definisce il livello diventando il primo fornitore di infrastrutture cloud a fornire ai sistemi di intelligenza artificiale le infrastrutture (GPU) tanto necessarie, sviluppando al contempo uno strumento per mitigare lo sfruttamento di questa tecnologia da parte di malintenzionati.

“Project Mayhem introdurrà il primo nel suo genere per garantire l’equilibrio tra modelli di intelligenza artificiale e verità. Decentralizzato, scalabile e open source garantiranno che stiamo spingendo i confini con l’IA, ma anche assicurandoci di avere uno ying nel suo yang”, Daniel Keller, co-fondatore di Flux e CEO di InFlux Technologies. “Ci sono molte sfide intorno all’accettazione dell’IA sviluppata, con Mayhem; c’è un modo per consentire a questa crescita aggressiva di essere sfruttata e stimolata correttamente”, ha continuato Daniel.

Flux continua a costruire e innovare per il futuro, fornendo infrastrutture per alimentare la nuova era dell’IA e adattarsi alle sfide.

Per ulteriori informazioni su Flux, unisciti a Discord e controlla il nostro sito Web ufficiale. Visita il nostro marketplace per ospitare ed eseguire facilmente front-end, nodi, block book, progetti crittografici e giochi con pochi clic.

Flux sta ridefinendo il futuro di Internet decentralizzato superando la barriera tecnologica e consentendo agli utenti finali di interagire più facilmente con l’ecosistema Web3. Stiamo innovando per potenziare il Web gratuito in modo più intelligente, migliore ea prezzi accessibili.

Fonte: InFlux Technologies Limited