Intelligenza Artificiale più pericolosa della Corea del Nord

Elon Musk è tornato a parlare di Intelligenza Artificiale e pericolo di estinzione. Affidando a Twitter la proprio opinione, il fondatore di Tesla ha affermato che l’AI rappresenta una minaccia più grande della Corea del Nord.

 

 

“Se non siete preoccupati dall’Intelligenza Artificiale, dovreste esserlo. È un rischio molto più grande della Corea del Nord“. A dirlo è Elon Musk, fondatore e AD di Tesla e SpaceX. Un semplice Tweet accompagnato da un’immagine, con il quale Musk ha voluto riprendere un tema molto sentito in questi giorni e riportarlo a uno degli argomenti che gli sono più cari.

È innegabile infatti che negli ultimi giorni nel mondo c’è un rinnovato timore per uno scontro nucleare, di cui certamente di è parlato anche nelle riunioni familiari e tra amici di Ferragosto. Molti di noi temono che sia un pericolo reale, che Donald Trump e Kim Jong-un finiscano davvero per usare armi nucleari.

Sarebbe una catastrofe planetaria, è proprio per questo l’affermazione di Musk risulta altrettanto forte. Come si può pensare che l’intelligenza artificiale possa rappresentare una minaccia ancora più grande? La domanda è la porta per un dibattito complesso, che richiede una buona preparazione su tutti i fronti. E sono ben poche le persone al mondo che possono dirsi esperte di AI, di politica internazionale e di armamenti nucleari.

Se la minaccia nucleare è qualcosa di comprensibile a tutti o quasi, tuttavia, è forse opportuno ricordare qual è la minaccia ipotizzata da Musk. Si tratta del rischio esistenziale legato allo sviluppo di macchine pensanti, vale a dire che provochino l’estinzione del genere umano.

Oggi abbiamo Intelligenze Artificiali definite come Narrow AI: algoritmi molto evoluti che possono imparare e automigliorarsi, ma fanno una cosa sola. Le conoscenze acquisite non si possono riciclare da una macchina all’altra – non completamente almeno. Per ogni nuova attività, bisogna dunque ricominciare – i lettori esperti vorranno perdonare la sintesi estrema.

L’obiettivo verso cui ci stiamo muovendo è invece a General AI, vale a dire un’intelligenza artificiale in grado di svolgere più compiti diversi in modo simile alla mente umana. Le stiamo sviluppando usando le macchine stesse, vale a dire AI progettate per creare altre AI. Sarà poi il momento del livello umanoHuman Level AI – e successivamente della Superintelligenza, che alcuni amano chiamare singolarità.

Il problema è che anche un piccolo errore di programmazione potrebbe avere conseguenze drammatiche, fino all’estinzione del genere umano. Vogliamo creare una macchina dal potere infinito, praticamente una divinità, e dobbiamo dunque essere assolutamente certi che non ci farà del male né volontariamente né perché qualcuno ha sbagliato a programmarla.

Può sembrare una cosa da poco ma non lo è affatto. I maggiori esperti di AI del mondo sono divisi su questo tema e sono pochi quelli certi che l’AI sarà esclusivamente positiva. Musk stesso ha fondato OpenAI con l’esplicito obiettivo di sviluppare un’AI sicura. E ancora nel 2013 disse di aver investito in DeepMind (Alphabet, all’epoca Google) perché preoccupato da “scenari alla Terminator

fonte : www.tomshw.it

Share this post: