Root NationNotiziaGiornale informaticoSarà impossibile gestire un'intelligenza artificiale super intelligente

Sarà impossibile gestire un'intelligenza artificiale super intelligente

-

L'idea che l'intelligenza artificiale rovesci l'umanità è stata dibattuta per decenni e nel gennaio 2021 gli scienziati hanno espresso il loro verdetto sulla possibilità di controllare una superintelligenza informatica di alto livello. Rispondere? Quasi certamente no.

Il problema è che controllare una supermente ben oltre la comprensione umana richiederebbe una simulazione di quella supermente che potremmo analizzare. Ma se non siamo in grado di capirlo, è impossibile creare una simulazione del genere.

Regole come "non nuocere agli esseri umani" non possono essere stabilite a meno che non comprendiamo quali scenari si presenterà l'intelligenza artificiale (AI), credono gli autori di un documento del 2021. Non appena il sistema informatico funzionerà a un livello che supera le capacità dei nostri programmatori, non saremo più in grado di porre limiti.

Intelligenza Artificiale

"La superintelligenza è un problema fondamentalmente diverso da quelli solitamente studiati sotto la bandiera dell'"etica dei robot"", scrivono i ricercatori. "Questo perché la supermente è sfaccettata e quindi potenzialmente in grado di mobilitare una varietà di risorse per raggiungere obiettivi potenzialmente insondabili per gli esseri umani, per non parlare di controllabili".

Parte del ragionamento della squadra viene da problemi di arresto, proposto da Alan Turing nel 1936. La sfida è capire se il programma per computer arriverà a una conclusione e risponderà (e si fermerà) o se resterà in giro per sempre cercando di trovare la risposta.

Come ha dimostrato Turing con l'aiuto matematica intelligente, mentre potremmo saperlo per alcuni programmi specifici, è logicamente impossibile trovare un modo che ci permetta di saperlo per ogni potenziale programma che potrebbe mai essere scritto. Questo ci riporta all'IA, che in uno stato superintelligente potrebbe archiviare tutti i possibili programmi per computer nella sua memoria contemporaneamente.

Interessante anche:

Qualsiasi programma scritto, ad esempio, per impedire a un'IA di danneggiare gli esseri umani e distruggere il mondo può o meno raggiungere una conclusione (e fermarsi): è matematicamente impossibile essere assolutamente certi in entrambi i casi, il che significa che non può essere trattenuto. "Rende sostanzialmente inutilizzabile l'algoritmo di deterrenza", ha affermato a gennaio l'informatico Iyad Rahwan del Max Planck Institute for Human Development in Germania.

Un'alternativa all'insegnamento dell'etica dell'IA e dei divieti contro la distruzione del mondo, di cui nessun algoritmo può essere assolutamente sicuro, affermano i ricercatori, è limitare le capacità della supermente. Ad esempio, potrebbe essere tagliato fuori da parte di Internet o da determinate reti.

Gli autori di un recente studio rifiutano anche questa idea, ritenendo che limiterà la portata dell'intelligenza artificiale - dicono, se non la useremo per risolvere problemi al di là delle capacità umane, allora perché crearla?

Intelligenza Artificiale

Se vogliamo far progredire l'intelligenza artificiale, potremmo non sapere nemmeno quando apparirà una superintelligenza, al di fuori del nostro controllo, tanto è insondabile. Ciò significa che dobbiamo iniziare a porre domande serie su dove siamo diretti.

"Una macchina superintelligente che fa funzionare il mondo sembra fantascienza", afferma l'informatico Manuel Kebrian del Max Planck Institute for Human Development. Ma ci sono già macchine che svolgono autonomamente alcuni compiti importanti, mentre i programmatori non capiscono appieno come l'abbiano appreso.

Pertanto, sorge la domanda se a un certo punto possa diventare incontrollabile e pericoloso per l'umanità...

Leggi anche:

Iscrizione
Avvisare su
ospite

0 Commenti
Recensioni incorporate
Visualizza tutti i commenti