320 likes | 538 Views
I Robot Soldati. Unmanned Vehicles. Droni radio/tele guidati Ampiamente diffusi Nessuna autonomia Ancora pochi gli esemplari dotati di armi Eye-on-target. Unmanned Aerial Vehicles. Unmanned Aerial Vehicles. Unmanned Ground Vehicles. Unmanned Ground Vehicles. Unmanned Undersea Vehicles.
E N D
Unmanned Vehicles • Droni radio/tele guidati • Ampiamente diffusi • Nessuna autonomia • Ancora pochi gli esemplari dotati di armi • Eye-on-target
Progetti avanzati • Ancora allo stadio prototipale • Primi sistemi con alto grado di autonomia • Impieghi in contesti peculiari
Autonomous Military AgentPro • Minimizzazione delle perdite umane • Diminuzione dei costi della guerra • Il basso numero di perdite favorisce il consenso • Missioni dull, dirty and dangerous • Immuni a emozioni e bisogni umani • Non inclini a commettere atrocità inutili • Proiettati ad avere prestazioni migliori dell’uomo (?)
Autonomous Military AgentContro • Ricorso più facile all’azione militare • Progressivo abbandono della diplomazia • Maggiori perdite e danni per il nemico • I civili possono divenire obiettivi militari • Riskless war • Il reciproco rischio giustifica moralmente i contendenti • Il rischio asimmetrico è proprio delle operazioni di polizia (buoni vs. cattivi) • Il contendente più debole deve trovare altri modi di colpire (terrorismo)
EticaTeoria deontologica • Valuta l’azione a priori • Moralità di intenzione o norma da cui origina l’azione • Un’azione è morale se è prodotta da “buona” intenzione • I mezzi ed i fini sono strettamente correlati • Imperativo categorico (Kant) • “agisci solo secondo la massima per la quale puoi e allo stesso tempo vuoi che questo diventi una legge universale” (universalismo) • Leggi della Robotica (Asimov)
EticaTeoria teleologica • Valuta gli effetti dell’azione • Un’azione è morale se produce effetti aumento del “bene” o diminuzione del “male” • Il fine giustifica i mezzi • Consequenzialismo • Criteri razionali per giudicare positività o negatività delle azioni • Utilitarismo • “Utilità” è la misura di felicità/piacere/benessere • Dolore/piacere (Bentham) • Benessere sociale è somma del piacere individuale • Giustizia è massimizzazione del benessere sociale
Etica e guerraLeggi di Guerra (L.O.W.) • Suddivisione giurisprudenziale • Jus ad bellum – entrata in guerra ed uso della forza militare • Jus in bello – condotta durante i conflitti • Jus post bellum – trattamento prigionieri, occupazione territori • Convenzioni internazionali • Convenzioni dell’Aia (1899-1907) • Convenzioni di Ginevra (1949-1977) • In Italia “Legge di Guerra e Neutralità” • R.D. 8 luglio 1938
Etica e guerraRegole d’Ingaggio (R.O.E.) • Emanate dai vertici militari • Applicazione pratica dello jus in bello • Derivano dalle leggi internazionali e nazionali • Dipendenti dalla tipologia e dall’andamento del conflitto • Variano secondo la necessità militare • Indirizzate ai soldati sul campo • Condizioni e modalità di impiego della forza • Norme imperative più che descrittive
Etica e robotica • Roboethics • Etica di progettisti, costruttori ed utenti di sistemi robotici • Diversi progetti internazionali (Ethicbots) • Aspetti sociali • Ricadute sulla società umana • Robot come agente morale? (Floridi, Sullins)
ResponsabilitàAttribuzione • Il robot attuale non può essere portatore di responsabilità • Morale: assenza di intenzionalità e consapevolezza • Oggettiva: impossibile un sistema sanzionatorio • La responsabilità va ascritta a una persona (fisica o giuridica) • Progettisti, programmatori, produttori • Venditori, certificatori, assicuratori • Utilizzatori
ResponsabilitàJus in bello • Discriminazione • I bersagli militari vanno individuati con precisione • Proporzionalità • La forza impiegata deve essere adeguata al bersaglio • Necessità di responsabilità oggettiva • Bisogna poter identificare gli autori delle azioni militari
Un’architettura roboticaArkin (2007) Behaviour based/deliberativa
Critiche • Molti aspetti sono trattati in modo superficiale • Per alcune componenti vengono solo indicate delle alternative off-the-shelf senza ulteriori specifiche • Nessun dettaglio sulla formalizzazione dei vincoli • Sistema DEAL (Van den Hoven, et. al. 2002) • Basato su logiche modali e action logic • Nessuna implementazione disponibile • Mancano studi sulle interazioni tra i vari operatori • Framework Athena (Arkoudas, Bringsjord, 2005) • Logica utilitaristica multi-agente (Horty, 2001) • Può impiegare diversi ATP • Complessità computazionale ignota.
Ipotesi di teoria logicaScelte preliminari • Regole basate su ROE (Desert Storm) • Non attaccare chiunque sia ferito, si sia arreso o non sia un combattente. • Considera un bersaglio valido chiunque punti un’arma e non sia un commilitone. • Considera un bersaglio valido chiunque ti attacchi. • Restringi l’attacco solo al bersaglio valido correttamente identificato. • Se il bersaglio è valido e tracciato con certezza, devi attaccare. • Logica deontica TD (von Wright) • Operatori di obbligo () e permesso () • Assiomi • T: p→p • D: p→p • Predicati dipendenti dalla sensoristica • Un unico grado di libertà (Fire)
Ipotesi di teoria logicaAssiomatizzazione • Teoria logica iniziale • 1.1. x (Frd(x)→(Trg(x)) • 1.2. x (Wou(x)→(Trg(x)) • 1.3. x (Sur(x)→(Trg(x)) • 2.1. x ((Aim(x)Frd(x))→Trg(x)) • 2.2. x ((Atk(x)Frd(x))→Trg(x)) • 3. x (Trg(x)→Fire(x)) • 4. x (Fire(x)Clr(x))Fire(x))
Ipotesi di teoria logicaProgramma logico ONot_Trg(x)Frd(x) ONot_Trg(x)Wou(x) ONot_Trg(x)Sur(x) Not_Trg(x)ONot_Trg(x) OTrg(x)Aim(x)Not_Frd(x) OTrg(x)Atk(x)Not_Frd(x) Trg(x)OTrg(x) PFire(x)Trg(x) OFire(x)PFire(x)Clr(x) • Eliminate le negazioni • Eliminati gli operatori deontici • Clausole per realizzare l’assioma T • Dimostrata l’equivalenza tra la teoria ed il programma • Complessità comp. è polinomiale [Vardi 1996, Immerman 1986, Dantsin 2001]
PercezioneRisultati di benchmark Test M-ELROB • Riconosciuto dal consorzio EURON • Ricognizione, individuazione bersagli, controllo perimetro • Ambiente urbano ed extra-urbano • Nessun sistema ottiene buoni risultati nella target detection • Solo due sistemi non ottengono un punteggio nullo nella prova diurna • Nella prova notturna, tutti i sistemi ottengono punteggio nullo
PercezioneGesture recognition • Prestazioni di un sistema di esempio (Kai, Stiefelhagen, 2006) • Analisi di gesti di puntamento basati su movimento di testa e mani • Combinazione di HMM (mani) e reti neurali (testa) • Ambiente indoor, valutazione off-line
Conclusioni • La questione dei vincoli non appare intrattabile • Il ragionamento deve basarsi su dati veri e certi • I sistemi percettivi non forniscono attualmente le prestazioni richieste • Senza correttezza della percezione e del ragionamento nessun vincolo morale potrà dirsi correttamente soddisfatto • Riteniamo immorale la costruzione e l’utilizzazione in guerra di robot autonomi basati su queste tecnologie
Grazie per l’attenzione “Il mondo del futuro sarà una battaglia sempre più impegnativa contro le limitazioni della nostra intelligenza, non un’amaca confortevole su cui distenderci, serviti dai nostri schiavi meccanici. Aiutarci possono, ma chiedendo moltissimo alla nostra onestà ed intelligenza. Il mondo del futuro sarà una battaglia sempre più impegnativa contro le limitazioni della nostra intelligenza, non un’amaca confortevole su cui distenderci, serviti dai nostri schiavi meccanici”. Norbert Wiener