. . .

 

Un ulteriore avviso relativo alla pericolosità dell’intelligenza artificiale arriva da Brad Smith, presidente di Microsoft che parla di “futuro orwelliano” che potrebbe caratterizzare le nostre società globali nel caso l’umanità non si proteggesse tramite apposite leggi onde prevenire questa stessa situazione, come rileva Space.com .

Anche le istituzioni hanno compreso il pericolo.
Ormai gli avvertimenti relativi alla pericolosità dell’intelligenza artificiale non arrivano più da singoli futurologi, fino a qualche tempo fa addirittura derisi, ma dalle stesse istituzioni mondiali. È passato solo un mese da quando la stessa Unione Europea ha pubblicato alcuni bandi relativi a progetti che dovrebbero stabilire dei limiti proprio per quanto riguarda l’utilizzo dell’intelligenza artificiale nel prossimo futuro. E sforzi del genere attualmente sono messi in atto anche negli Stati Uniti, i quali sono in piena corsa con la Cina per lo sviluppo di tecnologie che un giorno potrebbero portare a quello che, secondo molti esperti, è considerato come un “punto di non ritorno”, ossia la cosiddetta “singolarità tecnologica”.

Gli algoritmi stanno diventando sempre più potenti.
Il fatto è che ci sono diversi algoritmi che stanno diventando sempre più potenti a tal punto da infondere preoccupazione in alcuni esperti. Si parla soprattutto degli algoritmi di apprendimento automatico (machine learning), algoritmi di solito usati per riconoscere modelli (ad esempio immagini) tramite l’utilizzo di quantità di dati enormi. Ebbene, questi algoritmi stanno diventando sempre più accurati e precisi e molto spesso lasciano di stucco anche gli stessi esperti o coloro che li hanno creati. L’altro aspetto che infonde timore sta nel fatto che questi algoritmi possono essere praticamente applicati a tutto, dall’astronomia alla matematica di base. Tutto ciò di cui si ha bisogno è una grossa quantità di dati e proprio le grosse quantità di dati attualmente sembrano non mancare (vedi il concetto di “big data”).

Pregiudizi, anche gli algoritmi possono soffrirne.
Quello di cui si ha paura maggiormente è che algoritmi del genere, magari migliorati a livello esponenziale, possano essere applicati anche in ambito sociale. In questo campo gli stessi algoritmi potrebbero lavorare rifacendosi ai pregiudizi umani dei quali tra l’altro sono “impegnati” gli stessi dati che poi si danno in pasto a questi algoritmi. Come rileva Space.com , ultimamente uno studio pubblicato su JAMA Psychiatry ha certificato che questi algoritmi possono soffrire proprio di questo aspetto: prevedendo il rischio di suicidio gli stessi algoritmi mostravano dati più allarmanti per gli individui neri e indiani d’America rispetto agli individui bianchi. I dati originari, quelli dati in pasto algoritmo, erano già distorti ed avevano provocato una sottovalutazione di un rischio sociale.

Un esempio: il riconoscimento facciale.
I dati sono allarmanti ma in realtà gli esperti del campo ne sono consapevoli ed una delle priorità assolute nel settore dell’intelligenza artificiale è incentrata proprio sulle modalità per evitare o comunque affrontare il pregiudizio per quanto riguarda l’utilizzo degli algoritmi. Ma sono diverse le applicazioni che si possono fare di algoritmi del genere in ambito sociale e che potrebbero risultare “pericolose”: si parla per esempio, di riconoscimento facciale, una tecnica che viene sempre più utilizzata per rintracciare le persone o addirittura per valutare la loro colpevolezza.

Ribellione delle macchine.
Guardando più in là nel tempo, in una previsione più a lungo termine, queste intelligenze artificiali potrebbero poi diventare così evolute da provocare problemi a livello globale, problemi che potrebbero sfociare, un giorno, nella cosiddetta “ribellione delle macchine”: un’intelligenza artificiale potrebbe, per esempio, innescare una pandemia di proposito onde ricattare gli esseri umani oppure il gruppo dirigente di determinato paese, giusto per dare un’idea di cosa potrebbero arrivare a progettare per ottenere i propri scopi. Si tratta di previsioni che fino a qualche anno fa apparivano come fantascienza ma che ora vengono prese in seria considerazione anche da quegli esperti che sembravano più riluttanti ad accettare l’esistenza di un rischio del genere.

Fonte ed altri link: https://notiziescientifiche.it

 


 

Segnala questa pagina web in rete.

 

Disclaimer: questo sito ("Ogigia, l'isola incantata dei navigatori del web") NON rappresenta una testata giornalistica in quanto viene aggiornato senza alcuna periodicità su vari argomenti, tra cui Linux, geopolitica, metodi di auto-costruzione di risorse, elettronica, segreti, informatica ed altri campi. Non può pertanto considerarsi un prodotto editoriale ai sensi della legge n. 62 del 07/03/2001. Il Webmaster inoltre dichiara di NON essere responsabile per i commenti inseriti nei post. Ogni informazione circa la salute o l'alimentazione sono solo a carattere informativo, e NON siamo responsabili di qualsiasi conseguenza negativa se qualcuno vuole improvvisarsi medico oppure dietologo; si consiglia sempre di rivolgersi a medici ed esperti qualificati. Eventuali commenti dei lettori, lesivi dell'immagine o dell'onorabilità di persone terze NON sono da attribuirsi al Webmaster, che provvederà alla loro cancellazione una volta venuto a conoscenza di un ipotetico problema. Eventuali ritardi nella cancellazione di quanto sgradito non sono imputabili a nessuno. Si declina ogni responsabilità sull'utilizzo da parte di terzi delle informazioni qui riportate. Le immagini pubblicate su questo sito, salvo diversa indicazione, sono state reperite su Internet, principalmente tramite ricerca libera con vari motori. In ogni caso si precisa che se qualcuno (potendo vantare diritti su immagini qui pubblicate, oppure su contenuti ed articoli, o per violazioni involontarie di copyright) avesse qualcosa da rimproverare o lamentare può scriverci attraverso la sezione per i contatti .