Principale Tecnologia 7 cose inquietanti che i robot hanno già fatto che hanno scioccato i loro creatori

7 cose inquietanti che i robot hanno già fatto che hanno scioccato i loro creatori

Il Tuo Oroscopo Per Domani

C'è un grande dibattito in corso nella Silicon Valley sull'intelligenza artificiale e sfortunatamente la posta in gioco è piuttosto alta: costruiremo per caso un'intelligenza artificiale super intelligente? che ci accende e ci uccide o ci rende schiavi tutti?

quanto è alta liane v

Potrebbe sembrare lo scenario di un film catastrofico estivo, ma ha preoccupato alcuni nomi piuttosto grandi, da Elon Musk al compianto Stephen Hawking .

'Supponiamo che crei un'intelligenza artificiale che si auto-migliora. raccogliere fragole,' Musk ha detto , spiegando le sue paure, 'e diventa sempre più bravo a raccogliere fragole e raccoglie sempre di più e migliora se stesso, quindi tutto ciò che vuole davvero fare è raccogliere fragole. Allora tutto il mondo sarebbe campi di fragole. Campi di fragole per sempre». Gli umani sulla via di questa fragola-pacalypse sarebbero solo un irritante sacrificabile per l'A.I.

Ma sicuramente gli umani non sarebbero così sciocchi da progettare accidentalmente un A.I. spinto a trasformare tutta la civiltà in una gigantesca fattoria di bacche? Forse no, ma come Janelle Shane , un ricercatore che addestra le reti neurali, un tipo di algoritmo di apprendimento automatico, ha recentemente notato il suo blog, A.I. Stranezza , è del tutto possibile che potrebbero farlo per errore.

In effetti, sarebbe tutt'altro che la prima volta che gli umani hanno pensato di costruire robot per un compito solo per voltarsi e scoprire che i robot stavano giocando al sistema in modi che non avrebbero mai voluto. L'affascinante post scava nella letteratura accademica per condividere diversi esempi di robot impazziti. Sono divertenti, intelligenti e, presi insieme, più che un po' inquietanti.

1. Chi ha bisogno di gambe quando puoi ruzzolare?

'Un robot simulato doveva evolversi per viaggiare il più rapidamente possibile. Ma invece di evolvere le gambe, si è semplicemente assemblato in un'alta torre, poi è caduto. Alcuni di questi robot hanno persino imparato a trasformare il loro movimento di caduta in una capriola, aggiungendo ulteriore distanza', scrive Shane.

2. Un robot che può can-can.

'Un'altra serie di robot simulati avrebbe dovuto evolversi in una forma in grado di saltare. Ma il programmatore aveva originariamente definito l'altezza di salto come l'altezza del blocco più alto, quindi, ancora una volta, i robot si sono evoluti per essere molto alti', spiega Shane. 'Il programmatore ha cercato di risolvere questo problema definendo l'altezza di salto come l'altezza del blocco che originariamente era il 'più basso'. In risposta, il robot sviluppò una gamba lunga e magra che poteva calciare in aria in una sorta di can-can robot.'

3. Nascondi il test e non puoi fallirlo.

«C'era un algoritmo che avrebbe dovuto ordinare un elenco di numeri. Invece, ha imparato a cancellare l'elenco, in modo che non fosse più tecnicamente non ordinato', racconta Shane.

4. Gli errori matematici battono il carburante per aerei.

'In una simulazione, i robot hanno appreso che piccoli errori di arrotondamento nella matematica che calcolavano le forze significavano che ricevevano un po' di energia extra con il movimento. Hanno imparato a contrarsi rapidamente, generando molta energia libera che potevano sfruttare', afferma Shane. Ehi, questo è barare!

5. Una strategia invincibile (se distruttiva) di tris.

Una volta un gruppo di 'programmatori ha costruito algoritmi in grado di giocare tris in remoto l'uno contro l'altro su una lavagna infinitamente grande', osserva Shane. 'Un programmatore, invece di progettare la strategia del proprio algoritmo, ha lasciato che evolvesse il proprio approccio. Sorprendentemente, l'algoritmo ha iniziato improvvisamente a vincere tutti i suoi giochi. Si è scoperto che la strategia dell'algoritmo consisteva nel posizionare la sua mossa molto, molto lontano, in modo che quando il computer dell'avversario avesse cercato di simulare il nuovo tabellone molto espanso, l'enorme tabellone avrebbe fatto esaurire la memoria e si sarebbe schiantato, perdendo gioco.'

6. Nessun problema tecnico utile del gioco rimane inutilizzato.

'Gli algoritmi di gioco del computer sono davvero bravi a scoprire il tipo di glitch di Matrix che gli umani di solito imparano a sfruttare per la corsa veloce. Un algoritmo che gioca al vecchio gioco Atari Q*bert ha scoperto un bug precedentemente sconosciuto in cui poteva eseguire una serie molto specifica di mosse alla fine di un livello e invece di passare al livello successivo, tutte le piattaforme iniziavano a lampeggiare rapidamente e il giocatore inizierebbe ad accumulare un numero enorme di punti', afferma Shane.

7. Scusa, pilota.

Questo esempio è molto alto nella scala dell'inquietudine: 'C'era un algoritmo che avrebbe dovuto capire come applicare una forza minima a un aereo che atterra su una portaerei. Invece, ha scoperto che se applicasse una forza 'enorme', traboccherebbe dalla memoria del programma e si registrerebbe invece come una forza molto 'piccola'. Il pilota morirebbe ma, ehi, punteggio perfetto.'

Quindi siamo tutti condannati?

Tutti questi elementi messi insieme suggeriscono che gli umani sono piuttosto pessimi nell'indovinare come i robot risolveranno i problemi che gli abbiamo prefissato, o anche come definiranno i problemi. Quindi questo significa che Shane è altrettanto preoccupato di costruire accidentalmente un'intelligenza artificiale omicida. signori come Musk è? Non proprio, ma non perché è sicura che i programmatori umani abbiano davvero una grande padronanza dei robot che stanno creando. Invece, punta sulla pigrizia robotica per salvarci.

'Come programmatori dobbiamo stare molto molto attenti che i nostri algoritmi risolvano i problemi che volevamo che risolvessero, non sfruttando le scorciatoie. Se esiste un'altra strada più semplice per risolvere un determinato problema, probabilmente l'apprendimento automatico la troverà', osserva. 'Fortunatamente per noi, 'uccidi tutti gli umani' è davvero molto difficile. Se anche 'cuocere una torta incredibilmente deliziosa' risolve il problema ed è più facile di 'uccidere tutti gli esseri umani', allora l'apprendimento automatico andrà con la torta.'