Nelle ultime settimane abbiamo spesso parlato della robotica esponendo i progressi che questo settore della tecnologia ha raggiunto e mostrando le stupefacenti incarnazioni di anni ed anni di ricerca dei più importanti laboratori del mondo. Raramente, tuttavia, ci siamo soffermati sulle conseguenze di ciò che abbiamo visto.
Cerchiamo di farlo ora grazie ad alcuni esperimenti piuttosto recenti. Il primo è stato realizzato dal Human-Robot Interaction Lab (Università di Tufts, Massachuttes) e mostra un robot piuttosto noto, Alpha 2, il quale – oltre ad essere programmato per eseguire dei compiti – ha ricevuto anche un ulteriore livello di programmazione volto a fargli valutare le conseguenze di ciò che gli si chiede.
Nell’esperimento condotto dal laboratorio in questione, veniva chiesto al robot di camminare su un tavolino sino al punto di cadere nel vuoto, o di avanzare sino a scontrarsi con un muro di mattoncini di plastica. Alpha 2, di fronte a questi comandi (ben compresi), eseguiva tutta una serie di valutazioni, chiedendosi – innanzitutto – se una persona avesse l’autorità per fare una certa richiesta e, in caso affermativo, avanzava dei dubbi sulle conseguenze del proprio gesto: solo quando gli venivano fornire delle spiegazioni che lo convincevano, dimostrando anche una certa fiducia, il robot eseguiva il compito.
Nel secondo esperimento, NeuralTalk, un utente indossava un visore collegato a una rete neurale (creata da Google assieme all’Università di Stanford) e camminava per le strade di una cittadina: in questo caso l’intelligenza artificiale di questa rete neurale era in grado di riconoscere, con precisione, tutto ciò che vedeva davanti, e di dargli la giusta definizione. Non capiva ciò che vedeva, ma sapeva riconoscerla.
Pensiamo a quando queste due realizzazioni verranno messe assieme, magari non nella forma di un robot umanoide: sarà possibile avere delle macchine a guida automatica che si avviano solo se riconoscono il guidatore ufficiale (dotato di permessi di guida) e, nel contempo, possono anche addurre delle obiezioni se vedono il driver non particolarmente in forma o sveglio.
Ricevendo il comando di una manovra, l’AI dell’auto potrà valutarne le conseguenze ed evidenziarne la scorrettezza, richiedendo – se del caso – maggiori informazioni per dare l’avallo finale. Sempre riservandosi, in ultima istanza, la decisione di adottare una manovra diversa nel caso intravveda un ostacolo all’ultimo momento (se è programmata per farlo).
Per questi motivi non bisogna preoccuparsi se un robot è in grado di dirci no, o se è in grado di conoscere tutto di quello che ci circonda: ci stiamo semplicemente preparando a far si che, un domani, tutte queste conclusioni – messe assieme – possano tornarci in qualche modo utili. Certamente peggio sarebbe lo sviluppare una tecnologia molto evoluta, generando magari una nuova forma di vita, senza essere pronti ad interfacciarsi con essa. E, nella peggiore delle ipotesi, affidandovisi ciecamente…