Digital Tzoppicare Tanca (DTT)

Star Trek Today: L'umanità potrebbe non essere in grado di controllare l'intelligenza artificiale super intelligente?

L'umanità potrebbe non essere in grado di controllare l'intelligenza artificiale super intelligente (AI), credono gli autori di un recente studio teorico. Inoltre, potremmo anche non sapere di avere questo tipo di file AI (intelligenza artificiale) ho creato.
Il rapido progresso degli algoritmi di intelligenza artificiale sta avvenendo davanti ai nostri occhi. Le macchine vincono contro gli umani al gioco del poker, battono piloti di caccia esperti in combattimenti aerei, imparano da zero attraverso tentativi ed errori, annunciano una grande rivoluzione nella medicina e nelle scienze della vita, diagnosticano gli uccelli così come i medici e distinguono meglio i singoli uccelli degli umani. Ciò dimostra quanto siano rapidi i progressi in molte aree.

Fonte immagine: Pixabay


Riferimento episodio di Star Trek: Generale / Androidi - AI

Con questo avanzamento nasce la preoccupazione di sapere se saremo in grado di controllare l'intelligenza artificiale. Preoccupazioni che sono state sollevate per almeno diversi decenni. Conosciamo i famosi tre dal 1942 Leggi del robotche hanno favorito lo scrittore Isaac Asimov abbozzato nel suo racconto "The Game of Tag":

1) Un robot non deve causare danni a una persona o, per inerzia, consentire che venga causato un danno a una persona,

2) un robot deve obbedire ai comandi di un essere umano, a condizione che questi non violino la prima legge, e

3) un robot deve proteggersi fintanto che non infrange la prima o la seconda legge.

Aggiunto in seguito Asimov una legge generale 0 aggiunta: Un robot non deve causare danni all'umanità o causare danni per omissioneNel 2014, il filosofo Nick Bostrom, direttore dell'Istituto per il futuro dell'umanità all'Università di Oxford, ha esaminato come l'IA super intelligente può distruggerci, come possiamo controllarla e perché vari metodi di controllo potrebbero non funzionare. Bostrom ha identificato due problemi con il controllo dell'IA. Il primo è il controllo su ciò che può fare l'IA. Ad esempio, possiamo controllare se deve connettersi a Internet. Il secondo è il controllo su ciò che vuole fare. Ad esempio, per controllarlo dobbiamo insegnargli i principi della pacifica convivenza con gli umani. Come ha notato Bostrom, un'intelligenza artificiale super intelligente sarà probabilmente in grado di superare tutti i limiti che vogliamo imporgli su ciò che può fare. Quanto al secondo problema, Bostrom dubita che lo siamo AI super intelligente potrebbe insegnare qualsiasi cosa.

Ora Manuel Alfonseca e il suo team dell'Universidad Autonoma de Madrid hanno deciso di affrontare il problema del controllo dell'intelligenza artificiale. Ha descritto i risultati del suo lavoro in Giornale di ricerca sull'intelligenza artificiale.

Gli spagnoli notano che qualsiasi algoritmo che dovrebbe garantire che l'IA non danneggi le persone deve prima simulare un comportamento che potrebbe causare danni a una persona in modo che la macchina possa riconoscerlo e fermarlo. Tuttavia, secondo i ricercatori, nessun algoritmo sarà in grado di simulare il comportamento dell'intelligenza artificiale e determinare con assoluta certezza se una determinata azione rischia di provocare danni agli esseri umani. Lo è già stato dimostrato La prima legge di Asimov è un problema che non può essere calcolato.
Inoltre, possiamo anche non sapere di aver creato una macchina super intelligente, concludono i ricercatori. Il motivo è quello Teorema di Rice, che dice che non puoi indovinare il risultato di un programma per computer solo guardando il suo codice.

Ma anche Alfonseca e colleghi hanno buone notizie. Bene, non dobbiamo più preoccuparci di cosa farà l'IA super intelligente. Esistono, infatti, tre principali restrizioni al tipo di ricerca che gli spagnoli svolgono. In primo luogo, tale intelligenza artificiale super intelligente emergerà solo tra 200 anni. In secondo luogo, non è noto se sia persino possibile creare questo tipo di intelligenza artificiale, ovvero una macchina intelligente in tanti ambiti quanti sono gli esseri umani. E terzo, anche se potremmo non essere in grado di controllare l'IA super intelligente, dovrebbe comunque essere possibile controllare l'intelligenza artificiale che è super intelligente in un raggio ristretto.