Root NationNotiziaGiornale informaticoApple ha presentato il suo nuovo modello di intelligenza artificiale ReALM

Apple ha presentato il suo nuovo modello di intelligenza artificiale ReALM

-

Ricercatori Apple hanno sviluppato un sistema di intelligenza artificiale chiamato ReALM (Reference Risoluzione as Language Modeling), che mira a migliorare radicalmente il modo in cui gli assistenti vocali comprendono e rispondono ai comandi.

In un documento di ricerca Apple descrive un nuovo quadro su come i modelli linguistici di grandi dimensioni affrontano il problema della risoluzione dei riferimenti, che include la decifrazione di riferimenti ambigui agli oggetti sullo schermo, nonché la comprensione del contesto conversazionale e di sottofondo. Di conseguenza, ReALM può portare a un'interazione più intuitiva e naturale con i dispositivi.

Apple

Il riconoscimento dei riferimenti è una parte importante della comprensione del linguaggio naturale, poiché consente agli utenti di utilizzare pronomi e altri riferimenti indiretti nelle conversazioni senza confusione. Per gli assistenti digitali, questa capacità ha rappresentato storicamente una sfida significativa, limitata dalla necessità di interpretare un’ampia gamma di segnali verbali e informazioni visive. Il sistema ReALM di Apple mira a risolvere questo problema trasformando il complesso processo di riconoscimento dei riferimenti in un puro compito di modellazione del linguaggio. In questo modo può comprendere i riferimenti agli elementi visivi visualizzati sullo schermo e integrare questa comprensione nel flusso della conversazione.

ReALM ricostruisce la struttura visiva dello schermo utilizzando rappresentazioni di testo. Ciò include l'analisi degli oggetti dello schermo e la loro disposizione per creare un formato di testo che rifletta il contenuto e la struttura dello schermo. Ricercatori Apple ha scoperto che questa strategia, combinata con una speciale messa a punto dei modelli linguistici per la risoluzione dei problemi di riferimento, supera significativamente i metodi tradizionali, comprese le funzionalità GPT-4 di OpenAI.

Apple

ReALM può consentire agli utenti di interagire in modo molto più efficace con gli assistenti digitali in base a ciò che viene attualmente visualizzato sullo schermo, senza la necessità di istruzioni precise e dettagliate. Ciò potrebbe rendere gli assistenti vocali molto più utili in varie situazioni, ad esempio aiutare i conducenti a navigare nei sistemi di infotainment durante la guida o assistere gli utenti con disabilità fornendo mezzi più semplici e accurati di interazione indiretta.

Apple ha già pubblicato diversi articoli di ricerca nel campo dell’intelligenza artificiale. Il mese scorso, l’azienda ha presentato un nuovo metodo per l’apprendimento di modelli linguistici di grandi dimensioni che integra perfettamente sia le informazioni testuali che quelle visive. È quello che ci si aspetta Apple introdurrà una serie di funzionalità AI alla conferenza WWDC di giugno.

Leggi anche:

Iscrizione
Avvisare su
ospite

0 Commenti
Recensioni incorporate
Visualizza tutti i commenti