Se colleghi "A.I." o "intelligenza artificiale" a Google Ricerca immagini, ecco cosa ottieni: cervelli elettrici che si illuminano di blu con i neuroni; robot traslucidi e teste di robot; codice che gocciola sulla fronte e sul naso. Una scimmia che diventa un utente di smartphone, quindi una figura in tecnologia indossabile, una protesi e una rete che esce dalla loro testa. "Cos'è A.I.?" Chiede un cyborg, ma non riceve mai risposta dalle teste, dai cervelli e dai corpi del robot. A.I. significa che noi e i nostri amici robot stiamo volando attraverso un mondo di uno e zero, contro uno schermo nero dello spazio.

Il futuro di ... jQuery? Credito: Max Pixel / dominio pubblico.

Ottieni un'immagine come questa: la misteriosa donna della valle con caratteristiche perfette di Photoshop. È una visione di un cyborg: in parte femmina e in parte circuito, con jQuery in esecuzione in background. La migliore ipotesi di Google per l'immagine? "Operatore di intelligenza artificiale". Questo cyborg illustra il futuro in numerosi articoli, come vedrai con una ricerca inversa di immagini, tra cui "Rise Of The Machines: BlackRock si rivolge ai robot per raccogliere titoli" e "Il cardinale vaticano alla ricerca di l'anima dentro la macchina. ”Illustra persino un articolo di ZDNet sulla nuova IA della mia università che include corsi a cui insegno.

Alcune opzioni di ricerca di immagini di Google per AI

Google Ricerca immagini offre una riga di parole per ridurre i risultati. Dopo parole come robot, alieno, informatica e cervello, donna e padre sono tornati, seguiti da sistema di potere, umano e dio. "Father" offre immagini di Alan Turing e John McCarthy. "Femmina" offre immagini di fembot.

"A volte per vedere la luce, devi rischiare il buio."

Parte di questa estetica è stata resa popolare dal film Minority Report, che ha presentato interfacce gestuali sul grande schermo. Oggi, ambienti intelligenti sono una realtà. Ma perché li descriviamo come stratificati e fantasma? "Questi cliché / pietre miliari culturali sono popolari per un'altra ragione: altrimenti è molto, molto difficile parlare della tecnologia della realtà digitale", scrive Eric Johnson. "Questi campi sono pieni di gergo, incoerenti nella pratica e difficili da criticare se non hai visto tutte le ultime demo; la cultura pop è una scorciatoia per un ideale comune, una visione condivisa ".

Il rapporto sulle minoranze è stato consigliato dal consulente scientifico John Underkoffler, fondatore e CEO di Oblong, che costruisce piattaforme HMI (Human Machine Interface) immersive combinando schermi di diverse scale e diverse modalità di interazione. È qualcosa su cui ha lavorato per quasi 30 anni, a partire dalla tesi del suo master presso il MIT Media Lab su ologrammi e realtà fotografica nel 1991, in cui ha studiato "lo sviluppo di nuove tecniche per il calcolo di schemi di interferenza olografica di oggetti e scene con una visione realistica caratteristiche. ”Questa ricerca faceva parte del progetto MIT Holographic Video - un'agenda che era iniziata più di un decennio prima alla fine degli anni '70, quando Nicholas Negroponte e ricercatori del Architecture Machine Group del MIT (il predecessore del Media Lab) svilupparono ambienti di simulazione che erano inteso per essere indistinguibile dalla realtà. Nel 1978, Negroponte e colleghi scrissero in una proposta: “Ci viene in mente il suggerimento di Bell. È la prossima cosa migliore di essere lì. Questa proposta riguarda l'essere lì. "

Pensavano che saremmo stati lì nel 1978. Quarant'anni dopo, ci siamo.

O c'è questa visione. Theodore Twombly (Joaquin Phoenix) attraversa un mondo colorato di rosa nel film Her. Di giorno lavora per un'azienda che scrive lettere per persone che non riescono a radunarle emotivamente - lui stesso un A.I. per i mondi emotivi delle persone. Sta uscendo con Samantha, il suo sistema operativo intelligente. Theodore si muove attraverso un mondo urbano, avendo conversazioni profondamente connesse con Samantha ma rimanendo disconnesso dalle persone che lo circondano. È in sintonia con una voce che solo lui può sentire, ma che può essere la stessa voce per migliaia di altri allo stesso tempo. È influenzato dalla strana virtualità del suo amore, o dall'evitare le difficoltà di relazionarsi con una persona reale, o entrambi? Il suo mondo cinematografico è corretto dal punto di vista cromatico come le sfarzose foto di Instagram dei fan di Coachella, un'interfaccia di immagine in cui nulla non è un computer.

Come comunichi ciò che non capisci?

Il problema è che è difficile comunicare chiaramente su A.I. - in parte perché comunicare al riguardo significa comprenderlo. E la maggior parte di noi non ha una chiara comprensione di ciò che A.I. lo è davvero. Il termine "intelligenza artificiale" esiste dal 1955, quando A.I. il pioniere John McCarthy scrisse che A.I. era una questione di "fare macchine fare cose che richiederebbero intelligenza se fatte dall'uomo". Quest'idea non è cambiata molto oggi - Wikipedia mette a confronto l'intelligenza artificiale (o l'intelligenza artificiale) con l'intelligenza naturale di umani e animali, e l'inglese di Oxford Dizionario lo definisce come "la capacità dei computer o di altre macchine di esibire o simulare comportamenti intelligenti; il campo di studio si occupava di questo. Abbreviato A.I. "Ma cosa significa in realtà per una persona comune? Significa chatbot che superano un test di Turing? Una rivolta robotica? O è semplicemente l'interattività in cui l'elaborazione avviene appena fuori dalla vista?

A.I. è una scatola nera, "un dispositivo che svolge funzioni complesse ma il cui meccanismo interno potrebbe non essere facilmente ispezionabile o comprensibile" (OED), qualcosa che comprendiamo a causa degli ingressi e delle uscite. Non possiamo vedere cosa succede dentro e non abbiamo intenzione di accedervi. La scatola nera è opaca.

Oggi, ci sono tre ragioni per l'opacità algoritmica, come scrive Jenna Burrell: la necessità di proteggere gli algoritmi che sono segreti di stato o aziendali; il fatto che la codifica correlata all'AI sia ancora il territorio degli specialisti; e una "discrepanza" tra i modi matematici con cui gli algoritmi elaborano le informazioni e il modo in cui gli umani pensano. Quest'ultimo è il più difficile da capire: come gli umani pensano che sia diverso da come la macchina pensa e come ragioniamo è diverso da come la macchina ragiona (o non ragiona, a seconda della tua definizione di "ragione").

L'Unione europea richiede che A.I. essere reso spiegabile attraverso un "diritto alla spiegazione" come parte del GDPR (General Data Protection Regulation) appena entrato in vigore. I cittadini dell'UE hanno il diritto a una spiegazione del lavoro degli algoritmi e hanno il diritto di richiedere l'intervento umano. I regolamenti supportano l'idea che "le persone sono dovute all'agire e alla comprensione quando devono affrontare decisioni prese automaticamente", ha scritto Cliff Kuang sul New York Times. David Weinberger sostiene che piuttosto che spiegare se stesso, uno dei focus di A.I. dovrebbe essere l'ottimizzazione, non la spiegazione: rendere visibili e chiari a tutti attraverso il dibattito nell'ordine pubblico quali sono i compromessi, piuttosto che potenzialmente ostacolare A.I.

Il governo degli Stati Uniti non è mai stato conosciuto per mazzi PowerPoint ben progettati

Nel frattempo, DARPA ha introdotto il programma Explainable Artificial Intelligence, che cerca di creare i modelli dietro l'apprendimento automatico e A.I. più spiegabile. È una mossa importante verso la comprensione di cosa intendiamo quando parliamo di A.I., eppure mi chiedo cosa realizzerà effettivamente per le persone comuni. La pagina DARPA per il progetto mostra questa immagine che mostra ciò che un utente potrebbe chiedere, ma non in alcun modo influirà sul modo in cui si presenta nel mondo. Forse non a caso, DARPA ritorna agli stessi cliché delle ricerche di immagini di Google che ho menzionato sopra.

Abbiamo bisogno di nuovi cliché.

Incontriamo A.I. nel mondo che ci circonda. Vediamo e leggiamo le applicazioni di A.I. in molte sfere diverse. Nel mio quartiere di Pittsburgh, dove Argo e Uber ATG hanno il loro quartier generale, i veicoli autonomi mi passano così spesso che non si registrano più fuori dal comune. Vicino alla pista da corsa lungo il fiume, passo escavatori e bulldozer autonomi. Queste sono applicazioni visibili da cui possiamo trarre comprensione. E quindi dobbiamo fare il duro lavoro di mostrare quali sono le applicazioni meno visibili di A.I. Assomiglia a. Sono entusiasta del lavoro di questo gruppo che ha organizzato un seminario sulle visualizzazioni per la spiegabilità dell'IA. Molti degli esempi che indicano nel loro annuncio del seminario riguardano l'insegnamento di A.I. (ecco un bell'esempio di qualche anno fa). Cosa potremmo progettare per le persone comuni?

A dire il vero, non vogliamo perdere l'eleganza, la semplicità e persino la magia dell'interazione intelligente: apprezziamo questi attributi in un buon design. Quando interagiamo con qualcosa di intelligente, vogliamo che ci apra modi per vedere e provare cosa può fare la tecnologia. Vogliamo sperimentare la magia. E nello sviluppare quella magia, è facile cadere nei luoghi comuni di Hollywood che ho menzionato. È difficile non farlo. Come si rende visibile qualcosa che accade fuori dalla vista?

Le nostre visioni della cultura pop di A.I. non ci stanno aiutando. In effetti, ci stanno facendo del male. Sono decenni obsoleti. E a peggiorare le cose, continuiamo a usare i vecchi cliché per parlare delle tecnologie emergenti oggi. Ci rendono più difficile la comprensione di A.I. - cos'è, cosa non è e quale impatto avrà sulla nostra vita. Quando non capiamo A.I., allora non capiamo i differenziali di potenza in gioco. Non impareremo a porre domande che potrebbero portare a una migliore IA. in futuro - e migliori cliché oggi. Posiamo i fantasmi e i cyborg per riposare e trovare un modo reale di comunicare su A.I.