Digital Tzoppicare Tanca (DTT)

Come superare in astuzia l'intelligenza artificiale: uomo contro macchina.

Sistemi informatici AI stanno trovando la loro strada in molte aree della nostra vita e offrono un grande potenziale, dai veicoli a guida autonoma all'assistenza ai medici con diagnosi e ai robot autonomi di ricerca e soccorso.

Tuttavia, uno dei principali problemi irrisolti, specialmente con il ramo dell'IA noto come "reti neurali", è che gli scienziati spesso non sono in grado di spiegare perché le cose vanno storte. Ciò è dovuto alla mancanza di comprensione del processo decisionale all'interno dei sistemi di IA. Questo problema è noto come problema della "scatola nera".

Chi è più intelligente?

Un nuovo progetto di ricerca di 15 mesi dell'Università di Lancaster, in cui è coinvolta anche l'Università di Liverpool, mira a svelare i segreti del problema della scatola nera e trovare un nuovo modo per "Deep Learning"di modelli di computer AI che rendono le decisioni trasparenti e spiegabili.

Il progetto "Verso sistemi di apprendimento robotico autonomo responsabili e spiegabili"svilupperà una serie di verifica della sicurezza e procedure di test per lo sviluppo di algoritmi di intelligenza artificiale. Questi contribuiranno a garantire che le decisioni prese dai sistemi siano solide e spiegabili.

Fonte immagine: Pixabay


Training

I ricercatori useranno una tecnica chiamata "reverse training". Consiste nel presentare il sistema in una data situazione in cui impara come eseguire un'azione - ad es. B. Rilevamento e sollevamento di un oggetto. I ricercatori modificano quindi vari elementi dello scenario come colore, forma, ambiente e osservano come il sistema apprende attraverso tentativi ed errori. I ricercatori ritengono che queste osservazioni possano portare a una migliore comprensione di come il sistema apprende e approfondisce Processo decisionale concesso.


Sviluppando modi per creare sistemi con reti neurali in grado di comprendere e prevedere le decisioni, la ricerca sarà fondamentale per sbloccare i sistemi autonomi in aree critiche per la sicurezza come veicoli e robot nell'industria.

Dott. Wenjie Ruan, professore alla School of Computing and Communications dell'Università di Lancaster e ricercatore capo del progetto, ha dichiarato: "Sebbene il Deep Learning Poiché una delle più straordinarie tecniche di intelligenza artificiale ha avuto un enorme successo in molte applicazioni, ha i suoi problemi quando viene utilizzata in sistemi critici per la sicurezza, inclusi meccanismi decisionali opachi e vulnerabilità agli attacchi avversari. "Questo progetto è un'eccellente opportunità per noi per colmare il divario di ricerca tra tecniche di apprendimento profondo e sistemi critici per la sicurezza.