840 likes | 1.01k Views
L’ETICA AL TEMPO DEI ROBOT. Giuseppe O. Longo Università di Trieste. Il mostro di Frankestein nella maschera di Boris Karloff. Mary Shelley (1797-1851) Frankenstein ovvero il Prometeo Moderno, 1818. Il Golem. Il Golem nel film di Paul Wegener (1915).
E N D
L’ETICA AL TEMPO DEI ROBOT Giuseppe O. Longo Università di Trieste
Mary Shelley (1797-1851) Frankenstein ovvero il Prometeo Moderno, 1818
Vaucanson (1709-1782) illustra i suoi sonatori meccanici – Cartolina illustrata
Helena: Perché li fabbricate, allora? Busman: Ahahah! Questa è bella! Perché si fabbricano i Robot! Fabry: Per il lavoro, signorina. Un Robot sostituisce due operai e mezzo. La macchina umana, signorina, era molto imperfetta. Un giorno occorreva eliminarla definitivamente. Karel Čapek, R.U.R. (1921)
Dottor Gall: I Robot quasi non avvertono i dolori fisici. Ciò non ha dato buoni risultati. Dobbiamo introdurre la sofferenza. Helena: E sono più felici se sentono il dolore? Dottor Gall: Al contrario. Però sono tecnicamente più perfetti. Karel Čapek, R.U.R.
Machina Dolens Racconto, da Il fuoco completo, Mobydick, Faenza, 2000 Il cervello nudo Dramma teatrale
Alan Turing ( 1912-1954) Le macchine possono pensare? Il “gioco dell’imitazione” (1950)
Il filosofo John Searle (1932) Il pensiero umano non è solo esecuzione di algoritmi
John Searle contro l’IA forte: i computer hanno la sintassi ma non la semantica
L’esperimento concettuale della “stanza cinese”Sto manipolando scarabocchi cinesi per produrre risposte in cinese, ma io non capisco il cinese. Il registro delle regole è in inglese - Chiunque sia nella stanza è un madrelingua cinese.
Supponendo che l’uscita abbia senso per un cinese, la persona dentro la stanza capisce il cinese? this
Joseph Weizenbaum (1923-2008) Il programma Eliza imitava uno psicologo (1964)
Un esempio di colloquio con Eliza Gli uomini sono tutti uguali. In che senso? In un modo o nell'altro ci tormentano sempre. Può farmi un esempio? Be', è stato il mio ragazzo a farmi venire qui. E' stato il suo ragazzo a farla venire qui. Dice che sono sempre depressa.
Continuazione Mi dispiace sentire che è depressa. E' vero. Sono infelice. Pensa che venire qui l'aiuterà a non essere infelice? Ho bisogno di aiuto, questo è sicuro. Che cosa cambierebbe per lei se ricevesse aiuto?
Continuazione Forse imparerei a sopportare mia madre. Mi dica qualcosa della sua famiglia. Mia madre si occupa di me. Chi altri della sua famiglia si occupa di lei? Mio padre. Suo padre. Per certi versi lei somiglia a mio padre. Che somiglianze vede?
Continuazione Lei non è molto aggressivo, ma penso che non voglia farmelo capire. Perché pensa che non sia molto aggressivo? Lei non litiga con me. Perché pensa che io non litighi con lei? Perché ha paura di me. Le fa piacere pensare che ho paura dei lei? Mio padre ha paura di tutti.
Continuazione Che cos'altro le viene in mente quando pensa a suo padre? I prepotenti. Questo ha a che fare con il fatto che il suo ragazzo l'ha fatta venire qui?
Sconvolto dal successo di Eliza, Weizenbaum ritirò il programma J. Weizenbaum ricevette nel 1988 il premio Norbert Wiener per la responsabilità sociale dei ricercatori
Forse, in realtà, stiamo assistendo a una graduale fusione della natura generale delle attività e delle funzioni umane con le attività e le funzioni di ciò che noi umani abbiamo costruito e di cui ci siamo circondati. Philip Dick, Mutazioni
Che siamo fatti di carbonio o di silicio non ha importanza: ciascuno di noi dev’essere trattato col giusto rispetto Arthur C. Clarke, 2010
a) L’etica robot -> umani. b) L’etica umani -> robot.
Le leggi della ROBO(E)TICA
1) Un robot non può recar danno a un essere umano e non può permettere che, a causa di un suo mancato intervento, un essere umano riceva danno. • 2) Un robot deve obbedire agli ordini impartiti dagli esseri umani, purché tali ordini non contravvengano alla Prima Legge. • 3) Un robot deve proteggere la propria esistenza, purché la sua autodifesa non contrasti con la Prima o con la Seconda Legge. Isaac Asimov (1942)
0) Un robot non può recar danno all’umanità e non può permettere che, a causa di un suo mancato intervento, l’umanità riceva danno. • 1) Un robot non può recar danno a un essere umano e non può permettere che, a causa di un suo mancato intervento, un essere umano riceva danno. • 2) Un robot deve obbedire agli ordini impartiti dagli esseri umani, purché tali ordini non contravvengano alla Prima Legge. • 3) Un robot deve proteggere la propria esistenza, purché la sua autodifesa non contrasti con la Prima o con la Seconda Legge.
Una scultura di robot soldato