Root NationNotiziaGiornale informaticoNon tutto ciò che chiamiamo AI è in realtà intelligenza artificiale. Ecco cosa devi sapere

Non tutto ciò che chiamiamo AI è in realtà intelligenza artificiale. Ecco cosa devi sapere

-

Nell'agosto 1955, un gruppo di studiosi presentò una richiesta di finanziamento di 13 dollari per condurre un seminario estivo al Dartmouth College, nel New Hampshire. Il campo che si proponevano di esplorare era l'intelligenza artificiale (AI). Sebbene la richiesta di finanziamento fosse modesta, l'ipotesi dei ricercatori non lo era: "Ogni aspetto dell'apprendimento o qualsiasi altra caratteristica dell'intelligenza può, in linea di principio, essere descritto in modo così preciso che si può costruire una macchina per imitarlo".

Da questi umili inizi, film e media hanno romanticizzato l'IA o l'hanno rappresentata come un cattivo. Tuttavia, per la maggior parte delle persone, l'intelligenza artificiale è rimasta solo una questione di dibattito e non una parte dell'esperienza di vita cosciente.

Non tutto ciò che chiamiamo AI è in realtà intelligenza artificiale

Alla fine del mese scorso, AI sotto forma di ChatGPT è esploso dalla speculazione fantascientifica e dai laboratori di ricerca e sui desktop e sui telefoni del grande pubblico. Questa è la cosiddetta "IA generativa": un prompt formulato in modo inaspettatamente intelligente può scrivere un saggio o fare una ricetta e una lista della spesa, o creare una poesia nello stile di Elvis Presley.

Sebbene ChatGPT è stato il concorrente più impressionante in un anno di successo dell'IA generativa, sistemi come questo hanno mostrato un potenziale ancora maggiore per creare nuovi contenuti e i suggerimenti di testo in immagine vengono utilizzati per creare immagini vivide che hanno persino vinto concorsi artistici. L'intelligenza artificiale potrebbe non avere ancora una coscienza vivente o la teoria della mente resa popolare nei film e nei romanzi di fantascienza, ma si sta avvicinando almeno a interrompere ciò che pensiamo che i sistemi di intelligenza artificiale possano fare.

I ricercatori che lavorano a stretto contatto con questi sistemi svengono alla prospettiva dell'intelligenza, come nel caso del LaMDA Large Language Model (LLM) di Google. LLM è un modello che è stato addestrato per elaborare e generare linguaggio naturale.

L'IA generativa ha anche sollevato preoccupazioni per il plagio, lo sfruttamento dei contenuti originali utilizzati per costruire modelli, l'etica della manipolazione delle informazioni e l'abuso di fiducia e persino la "fine della programmazione".

Cosa significa veramente IA?

Al centro di tutto questo c'è una domanda la cui rilevanza è cresciuta sin dal seminario estivo a Dartmouth: l'intelligenza artificiale è diversa dall'intelligenza umana? Per essere considerato AI, un sistema deve dimostrare un certo livello di apprendimento e adattamento. Per questo motivo, i sistemi decisionali, di automazione e statistici non sono AI. In generale, l'IA è divisa in due categorie: intelligenza artificiale ristretta (AI) e intelligenza artificiale generale (AI). Attualmente lo SHI non esiste. Una sfida chiave per costruire un'IA generale è modellare adeguatamente il mondo con l'intero corpus di conoscenze, in modo coerente e utile. Questo è, per usare un eufemismo, un compito su larga scala.

La maggior parte di ciò che oggi conosciamo come AI ha un'intelligenza ristretta, in cui un sistema specifico risolve un problema specifico. A differenza dell'intelligenza umana, un'intelligenza artificiale così ristretta è efficace solo nel dominio in cui è stata addestrata: come il rilevamento di frodi, il riconoscimento facciale o le raccomandazioni sociali. E l'intelligenza artificiale funzionerà allo stesso modo di una persona. Attualmente, l'esempio più importante di tentativi per raggiungere questo obiettivo è l'uso di reti neurali e deep learning addestrati su enormi quantità di dati.

Non tutto ciò che chiamiamo AI è in realtà intelligenza artificiale

Le reti neurali si ispirano a come funziona il cervello umano. A differenza della maggior parte dei modelli di machine learning, che eseguono calcoli sui dati di addestramento, le reti neurali funzionano alimentando a turno ogni punto dati attraverso una rete interconnessa, regolando i parametri ogni volta. Man mano che sempre più dati vengono immessi attraverso la rete, i parametri si stabilizzano, risultando in una rete neurale "addestrata" che può quindi produrre l'output desiderato sui nuovi dati, ad esempio riconoscendo se un'immagine contiene un gatto o un cane.

Un salto significativo nello sviluppo dell'intelligenza artificiale oggi è dovuto ai miglioramenti tecnologici nei metodi di apprendimento delle grandi reti neurali, che consentono di regolare un numero enorme di parametri durante ogni esecuzione grazie alle capacità delle grandi infrastrutture di cloud computing. Ad esempio, GPT-3 (il sistema AI che alimenta ChatGPT) è una grande rete neurale con 175 miliardi di parametri.

Cosa è necessario affinché l'intelligenza artificiale funzioni?

L'intelligenza artificiale ha bisogno di tre cose per funzionare con successo. Innanzitutto, ha bisogno di qualità, dati oggettivi e molto. I ricercatori che costruiscono reti neurali utilizzano grandi quantità di dati apparsi grazie alla digitalizzazione della società.

A complemento dei programmatori umani, Co-Pilot ricava i suoi dati da miliardi di righe di codice ospitate su GitHub. ChatGPT e altri modelli di linguaggio di grandi dimensioni utilizzano i miliardi di siti Web e documenti di testo archiviati su Internet.

Strumenti di conversione da testo a immagine come Diffusione stabile, LASTRA-2 e Midjourney, utilizzano coppie immagine-testo da set di dati come LAION-5B. I modelli di intelligenza artificiale continueranno a evolversi man mano che digitalizziamo una parte maggiore della nostra vita e forniamo loro fonti di dati alternative, come dati di simulazione o dati provenienti da impostazioni di gioco come Minecraft.

Non tutto ciò che chiamiamo AI è in realtà intelligenza artificiale

L'intelligenza artificiale ha anche bisogno di un'infrastruttura informatica per addestrarsi in modo efficace. Man mano che i computer diventano più potenti, i modelli che ora richiedono uno sforzo intenso e calcoli su larga scala potrebbero in un prossimo futuro essere elaborati localmente. Ad esempio, il modello Stable Diffusion può già essere eseguito su computer locali e non in ambienti cloud. La terza esigenza dell'IA è il miglioramento dei modelli e degli algoritmi. I sistemi basati sui dati continuano a fare rapidi progressi in aree un tempo considerate il dominio della cognizione umana.

Tuttavia, poiché il mondo che ci circonda è in continua evoluzione, i sistemi di intelligenza artificiale devono essere costantemente riqualificati utilizzando nuovi dati. Senza questo importante passaggio, i sistemi di intelligenza artificiale daranno risposte che sono di fatto errate o che non tengono conto delle nuove informazioni emerse da quando sono stati addestrati.

Le reti neurali non sono l'unico approccio all'IA. Un altro campo degno di nota nella ricerca sull'intelligenza artificiale è l'IA simbolica: invece di digerire vaste serie di dati, si basa su regole e conoscenze simili al processo umano di formazione di rappresentazioni simboliche interne di determinati fenomeni.

Ma nell'ultimo decennio, l'equilibrio del potere si è fortemente inclinato verso approcci basati sui dati e i "padri fondatori" del moderno deep learning hanno recentemente ricevuto il Premio Turing, l'equivalente del Premio Nobel per l'informatica.

Non tutto ciò che chiamiamo AI è in realtà intelligenza artificiale

Dati, calcoli e algoritmi costituiscono la base della futura IA. Tutti gli indicatori indicano un rapido progresso in tutte e tre le categorie per il prossimo futuro.

Puoi aiutare l'Ucraina a combattere contro gli invasori russi. Il modo migliore per farlo è donare fondi alle forze armate ucraine attraverso Salva Vita o tramite la pagina ufficiale NBU.

Iscrizione
Avvisare su
ospite

0 Commenti
Recensioni incorporate
Visualizza tutti i commenti