Root NationArticoliAnaliticaI sei comandamenti dell'intelligenza artificiale

I sei comandamenti dell'intelligenza artificiale

-

Gli anni successivi saranno contrassegnati dal rapido sviluppo delle tecnologie di intelligenza artificiale. Forse è necessario introdurre quadri chiaramente definiti per la creazione e l'uso dell'IA? Bastano 6 mesi di esperienza per regolamentare una tecnologia che non è ancora uscita dal laboratorio? Questa domanda viene sempre più spesso dalla bocca di esperti e giornalisti quando si parla di intelligenza artificiale. Le voci e gli inviti ad adottare misure per regolamentare l'intelligenza artificiale - sia a livello di utente che a livello di sviluppo del progetto - si sentono sempre più spesso. La storia di tali appelli è iniziata molto tempo fa.

La presenza onnipresente dell'intelligenza artificiale nello spazio digitale e, soprattutto, di modelli in grado di creare contenuti che non differiranno da quelli creati dagli umani, evoca emozioni molto diverse. Da un lato, abbiamo un gruppo di appassionati che vede nell'IA il futuro e, nonostante le sue capacità relativamente limitate (perché l'IA non pensa e spesso si limita a prendere informazioni da Internet), non ha paura di affidarle molti compiti . Dall'altra parte della barricata c'è un gruppo che esprime scetticismo e preoccupazione per le attuali tendenze nello sviluppo dell'intelligenza artificiale.

Postulato AI

Il ponte tra i due gruppi sono i ricercatori di intelligenza artificiale, che, da un lato, citano numerosi esempi di come l'intelligenza artificiale abbia influito positivamente sulla realtà circostante. Allo stesso tempo, capiscono che è troppo presto per adagiarsi sugli allori e che un enorme salto tecnologico comporta molte sfide e grandi responsabilità. Un chiaro esempio di questo atteggiamento è un gruppo internazionale di ricercatori di intelligenza artificiale e apprendimento automatico guidato dal dottor Ozlem Garibay dell'Università della Florida centrale. La pubblicazione di 47 pagine, scritta da 26 scienziati di tutto il mondo, identifica e descrive sei sfide che gli istituti di ricerca, le aziende e le società devono affrontare per rendere sicuri i loro modelli (e il software che li utilizza).

Sì, questo è un lavoro scientifico serio con spiegazioni importanti per comprendere il futuro dell'intelligenza artificiale. Chi è interessato, può indipendentemente leggi questo rapporto scientifico e trai le tue conclusioni. In parole semplici, gli scienziati hanno individuato 6 comandamenti dell'intelligenza artificiale. Tutti gli sviluppi e le azioni dell'IA devono conformarsi ad essi in modo che sia sicuro per le persone e per il mondo.

Postulato AI

Nel mio articolo, scritto proprio sulla base di questo lavoro scientifico, cercherò di formulare i principali postulati, le leggi secondo le quali dovrebbe esistere e svilupparsi l'intelligenza artificiale. Sì, questa è la mia interpretazione quasi libera delle conclusioni degli scienziati sullo sviluppo dell'intelligenza artificiale e un tentativo di presentarle, per così dire, in una versione biblica. Ma è così che volevo presentarvi questo lavoro scientifico di rispettati scienziati.

Interessante anche: Costruire AI: chi è in testa alla gara?

La prima legge: il benessere umano

Il primo postulato dei ricercatori è quello di focalizzare il lavoro dell'intelligenza artificiale sul benessere umano. A causa della mancanza di "valori umani, buon senso ed etica", l'intelligenza artificiale può agire in un modo che porterà a un significativo deterioramento del benessere umano. I problemi possono essere il risultato delle capacità sovrumane dell'IA (ad esempio, quanto facilmente l'IA batte gli umani - e non solo a scacchi), ma anche il fatto che l'IA non pensa da sola, e quindi non è in grado di "filtrare" pregiudizi o errori evidenti.

Postulato AI

- Annuncio pubblicitario -

I ricercatori osservano che un'eccessiva fiducia nelle tecnologie di intelligenza artificiale può influire negativamente sul benessere delle persone. Una società che ha poca comprensione di come funzionano effettivamente gli algoritmi di intelligenza artificiale tende a fidarsi eccessivamente di essa o, al contrario, ha un atteggiamento negativo nei confronti dei contenuti generati da un certo modello, in particolare i chatbot. Considerando questi e altri fattori, il team di Garibay chiede di mettere il benessere umano al centro della futura interazione AI-uomo.

Leggi anche: ChatGPT: una semplice guida per l'utente

La seconda legge: Responsabilità

Responsabilità è un termine che continua a spuntare nel mondo dell'IA nel contesto di ciò per cui utilizziamo l'apprendimento automatico e di come vengono sviluppati e addestrati esattamente i modelli e gli algoritmi di intelligenza artificiale. Il team internazionale sottolinea che la progettazione, lo sviluppo e l'implementazione dell'intelligenza artificiale dovrebbero essere fatti esclusivamente con buone intenzioni.

Postulato AI

A loro avviso, la responsabilità dovrebbe essere considerata non solo in un contesto tecnico, ma anche legale ed etico. La tecnologia va considerata non solo dal punto di vista della sua efficacia, ma anche nel contesto del suo utilizzo.

"Con l'introduzione di tecniche avanzate di machine learning, diventa sempre più importante capire come è stata presa una decisione e chi ne è responsabile” - scrivono i ricercatori.

La terza legge: la riservatezza

La privacy è un argomento che fa boomerang in ogni discorso sulla tecnologia. Soprattutto quando si discute di tutto sui social network. Tuttavia, questo è estremamente importante per l'intelligenza artificiale perché non esiste senza un database. E cosa sono i database?

Gli scienziati li descrivono come "un'astrazione degli elementi costitutivi di base che costituiscono il modo in cui vediamo il mondo". Questi blocchi sono solitamente valori banali: colori, forme, trame, distanze, tempo. Mentre l'IA ristretta si concentra su un unico obiettivo, come il grado di apertura dell'otturatore a una data intensità di luce, utilizza dati oggettivi pubblicamente disponibili, l'IA in applicazioni più ampie (qui, ad esempio, modelli di testo-immagine come Midjourney , o modelli linguistici come ChatGPT ) possono utilizzare dati su e creati da persone. Vanno citati anche articoli di stampa, libri, illustrazioni e fotografie pubblicati su Internet. Gli algoritmi di intelligenza artificiale hanno accesso a tutto, perché noi stessi glielo abbiamo dato. Altrimenti non saprà nulla e non darà risposte a nessuna domanda.

Postulato AI

I dati degli utenti influenzano fondamentalmente sia le persone su cui vengono raccolti questi dati sia le persone nel sistema in cui verranno implementati gli algoritmi di intelligenza artificiale.

Pertanto, la terza sfida riguarda un'ampia comprensione della privacy e la fornitura di diritti quali il diritto di rimanere soli, il diritto di limitare l'accesso a se stessi, il diritto alla segretezza della propria vita personale o aziendale, il diritto di controllare la propria informazione, ovvero il diritto alla tutela della propria personalità, individualità e dignità. Tutto questo deve essere scritto negli algoritmi, altrimenti la privacy semplicemente non esisterà e gli algoritmi di intelligenza artificiale possono essere utilizzati in schemi fraudolenti e reati.

Leggi anche: 7 modi più interessanti per utilizzare ChatGPT

Quarta legge: struttura del progetto

L'intelligenza artificiale può essere estremamente semplice e monouso, ma nel caso di modelli più grandi con una natura ampia e multitasking, il problema non è solo la privacy dei dati, ma anche la struttura del design.

Ad esempio, GPT-4, l'ultimo modello di intelligenza artificiale di OpenAI, nonostante le dimensioni e l'impatto sul mondo AI (e non solo), non ha una documentazione completamente pubblica. Cioè, non abbiamo una comprensione di quali siano gli obiettivi finali per gli sviluppatori, cosa vogliono ottenere nel risultato finale. Pertanto, non possiamo valutare completamente i rischi associati all'uso di questo modello di intelligenza artificiale. GPT-3, d'altra parte, addestrato sui dati del forum 4chan, è un modello con cui sicuramente non vuoi interagire. Il forum 4chan è uno dei fenomeni più interessanti su Internet. Questo è un esempio di assoluta, totale anarchia, che in pratica non è limitata da alcun quadro. È qui che sono stati creati gruppi di hacking come Anonymous o LulzSec. È la fonte di molti dei meme più popolari, un luogo in cui discutere argomenti controversi e pubblicare opinioni ancora più controverse. Sebbene l'imageboard in lingua inglese noti che "finora è legale", questo è alquanto discutibile, dato che 4chan interagisce occasionalmente con i media, inclusi contenuti razzisti, nazisti e sessisti.

Postulato AI

- Annuncio pubblicitario -

Il team del professor Garibay vuole che ogni modello di intelligenza artificiale funzioni all'interno di un quadro chiaramente definito. Non solo per il benessere della persona con cui l'IA interagisce, ma anche per la capacità di valutare i rischi associati all'utilizzo del modello. La struttura di qualsiasi progetto dovrebbe includere il rispetto dei bisogni, dei valori e dei desideri dei diversi gruppi culturali e delle parti interessate. Il processo di creazione, formazione e messa a punto dell'IA dovrebbe essere incentrato sul benessere umano e il prodotto finale - il modello di intelligenza artificiale - dovrebbe essere focalizzato sul miglioramento e sul miglioramento della produttività della stessa comunità umana. I modelli in cui non è possibile identificare i rischi dovrebbero avere un accesso limitato o controllato. Non dovrebbero essere una minaccia per l'umanità, ma al contrario contribuire allo sviluppo dell'uomo e della società nel suo insieme.

Leggi anche: Twitter nelle mani di Elon Musk - una minaccia o un "miglioramento"?

La quinta legge: governance e controllo indipendente

Gli algoritmi di intelligenza artificiale hanno letteralmente cambiato il mondo in un solo anno. Bard di Google e Bing in anteprima da Microsoft ha influenzato in modo significativo le azioni di entrambi i giganti in borsa. A proposito, hanno contribuito alla crescita delle azioni di queste società anche nel contesto delle azioni Apple. ChatGPT ha iniziato a essere utilizzato attivamente dagli studenti delle scuole, comunicano con esso, lo esaminano e fanno domande. La cosa più importante è che ha la capacità di autoapprendere, correggere i suoi errori. L'intelligenza artificiale sta persino iniziando a funzionare nei governi di alcuni paesi. È il caso del primo ministro della Romania, Nicolae Chuca assunto un virtuale un assistente che lo informerà sui bisogni della società. Cioè, l'intelligenza artificiale gioca un ruolo sempre più importante nelle nostre vite.

AI

Data la sempre crescente interdipendenza tra intelligenza artificiale, esseri umani e ambiente, gli scienziati ritengono necessario creare organi di governo e una supervisione indipendente del suo sviluppo. Questi organismi controlleranno l'intero ciclo di vita dell'intelligenza artificiale: dall'idea allo sviluppo e all'implementazione. Le autorità definiranno correttamente diversi modelli di IA e prenderanno in considerazione i casi relativi all'intelligenza artificiale e ai soggetti della vita sociale. Cioè, l'intelligenza artificiale può diventare oggetto di procedimenti giudiziari e cause legali. Anche se, ovviamente, non lui personalmente, ma i suoi sviluppatori.

Leggi anche: Tutto su Neuralink: l'inizio della follia cyberpunk?

La sesta legge: l'interazione tra uomo e intelligenza artificiale

Nei programmi di intelligenza artificiale, ognuno può trovare qualcosa per sé: generare testo, rilevare contenuti nelle immagini, rispondere a domande, generare immagini, riconoscere persone nelle foto, analizzare dati. Questi molteplici usi non sono solo una preoccupazione per le persone che cercano di adattare l'intelligenza artificiale a standard legali ed etici. Molti temono di essere espulsi dal mercato del lavoro dai modelli di intelligenza artificiale. Perché gli algoritmi di intelligenza artificiale saranno in grado di fare la stessa cosa più velocemente, meno costosi e forse anche meglio di una persona. Allo stesso tempo, ci sono persone che si affidano all'IA nel loro lavoro, ovvero l'intelligenza artificiale è già oggi per loro un assistente indispensabile.

AI

Ma dagli studi a cui fanno riferimento gli scienziati, è chiaro che la sostituzione delle persone con manodopera artificiale a basso costo è ancora piuttosto lontana. Nonostante ciò, stanno già insistendo sulla necessità di stabilire una rigida gerarchia di interazione tra esseri umani e intelligenza artificiale. Secondo loro, gli esseri umani dovrebbero essere posti al di sopra dell'intelligenza artificiale. L'intelligenza artificiale deve essere creata nel rispetto delle capacità cognitive di una persona, tenendo conto delle sue emozioni, interazioni sociali, idee, pianificazione e interazione con gli oggetti. Cioè, in tutte le situazioni, è la persona che deve stare al di sopra dell'intelligenza artificiale, controllare il comportamento e il contenuto creato dal modello e esserne responsabile. In parole semplici, anche l'IA più avanzata deve obbedire a una persona e non andare oltre ciò che è consentito, per non danneggiare il suo creatore.

Leggi anche: Come l'Ucraina usa e adatta Starlink durante la guerra

Visnovki

Sì, qualcuno dirà che gli scienziati non hanno indicato nulla di importante e nuovo nel loro rapporto. Tutti ne parlano da molto tempo. Ma già ora è necessario inserire l'IA in un quadro di leggi. Raggiungere GPT-4 è come prendere un coltello alla cieca. Ci nascondono informazioni chiave. Tutti gli sviluppi nell'intelligenza artificiale, e in particolare il progetto ChatGPT di Open AI, spesso mi ricordano di crescere un bambino piccolo. A volte sembra che questo sia un bambino di origine aliena. Sì, un alieno, ma è pur sempre un bambino che impara, sbaglia, a volte si comporta in modo inappropriato, è irritabile, litiga con i genitori. Anche se cresce e si sviluppa molto rapidamente.

AI

L'umanità potrebbe non tenere il passo con il suo sviluppo e le cose potrebbero andare fuori controllo. Pertanto, l'umanità ha già bisogno di capire perché stiamo sviluppando tutto questo, di conoscere gli obiettivi finali, di essere "genitori responsabili", perché altrimenti il ​​\uXNUMXb\uXNUMXbbambino può semplicemente distruggere i suoi "genitori".

Leggi anche: 

Yuri Svitlyk
Yuri Svitlyk
Figlio dei Carpazi, genio non riconosciuto della matematica, "avvocato"Microsoft, altruista pratico, sinistra-destra
- Annuncio pubblicitario -
Iscrizione
Avvisare su
ospite

0 Commenti
Recensioni incorporate
Visualizza tutti i commenti