1 / 32

I Robot Soldati

I Robot Soldati. Unmanned Vehicles. Droni radio/tele guidati Ampiamente diffusi Nessuna autonomia Ancora pochi gli esemplari dotati di armi Eye-on-target. Unmanned Aerial Vehicles. Unmanned Aerial Vehicles. Unmanned Ground Vehicles. Unmanned Ground Vehicles. Unmanned Undersea Vehicles.

torie
Download Presentation

I Robot Soldati

An Image/Link below is provided (as is) to download presentation Download Policy: Content on the Website is provided to you AS IS for your information and personal use and may not be sold / licensed / shared on other websites without getting consent from its author. Content is provided to you AS IS for your information and personal use only. Download presentation by click this link. While downloading, if for some reason you are not able to download a presentation, the publisher may have deleted the file from their server. During download, if you can't get a presentation, the file might be deleted by the publisher.

E N D

Presentation Transcript


  1. I Robot Soldati

  2. Unmanned Vehicles • Droni radio/tele guidati • Ampiamente diffusi • Nessuna autonomia • Ancora pochi gli esemplari dotati di armi • Eye-on-target

  3. Unmanned Aerial Vehicles

  4. Unmanned Aerial Vehicles

  5. Unmanned Ground Vehicles

  6. Unmanned Ground Vehicles

  7. Unmanned Undersea Vehicles

  8. Unmanned Surface Vehicles

  9. Dispositivi autonomi (CIWS)

  10. Progetti avanzati • Ancora allo stadio prototipale • Primi sistemi con alto grado di autonomia • Impieghi in contesti peculiari

  11. Progetti avanzati - Crusher

  12. Progetti avanzati – SGR-A1

  13. Progetti avanzati - RoboSnake

  14. Progetti avanzati - BigDog

  15. Autonomous Military AgentPro • Minimizzazione delle perdite umane • Diminuzione dei costi della guerra • Il basso numero di perdite favorisce il consenso • Missioni dull, dirty and dangerous • Immuni a emozioni e bisogni umani • Non inclini a commettere atrocità inutili • Proiettati ad avere prestazioni migliori dell’uomo (?)

  16. Autonomous Military AgentContro • Ricorso più facile all’azione militare • Progressivo abbandono della diplomazia • Maggiori perdite e danni per il nemico • I civili possono divenire obiettivi militari • Riskless war • Il reciproco rischio giustifica moralmente i contendenti • Il rischio asimmetrico è proprio delle operazioni di polizia (buoni vs. cattivi) • Il contendente più debole deve trovare altri modi di colpire (terrorismo)

  17. EticaTeoria deontologica • Valuta l’azione a priori • Moralità di intenzione o norma da cui origina l’azione • Un’azione è morale se è prodotta da “buona” intenzione • I mezzi ed i fini sono strettamente correlati • Imperativo categorico (Kant) • “agisci solo secondo la massima per la quale puoi e allo stesso tempo vuoi che questo diventi una legge universale” (universalismo) • Leggi della Robotica (Asimov)

  18. EticaTeoria teleologica • Valuta gli effetti dell’azione • Un’azione è morale se produce effetti aumento del “bene” o diminuzione del “male” • Il fine giustifica i mezzi • Consequenzialismo • Criteri razionali per giudicare positività o negatività delle azioni • Utilitarismo • “Utilità” è la misura di felicità/piacere/benessere • Dolore/piacere (Bentham) • Benessere sociale è somma del piacere individuale • Giustizia è massimizzazione del benessere sociale

  19. Etica e guerraLeggi di Guerra (L.O.W.) • Suddivisione giurisprudenziale • Jus ad bellum – entrata in guerra ed uso della forza militare • Jus in bello – condotta durante i conflitti • Jus post bellum – trattamento prigionieri, occupazione territori • Convenzioni internazionali • Convenzioni dell’Aia (1899-1907) • Convenzioni di Ginevra (1949-1977) • In Italia “Legge di Guerra e Neutralità” • R.D. 8 luglio 1938

  20. Etica e guerraRegole d’Ingaggio (R.O.E.) • Emanate dai vertici militari • Applicazione pratica dello jus in bello • Derivano dalle leggi internazionali e nazionali • Dipendenti dalla tipologia e dall’andamento del conflitto • Variano secondo la necessità militare • Indirizzate ai soldati sul campo • Condizioni e modalità di impiego della forza • Norme imperative più che descrittive

  21. Etica e robotica • Roboethics • Etica di progettisti, costruttori ed utenti di sistemi robotici • Diversi progetti internazionali (Ethicbots) • Aspetti sociali • Ricadute sulla società umana • Robot come agente morale? (Floridi, Sullins)

  22. ResponsabilitàAttribuzione • Il robot attuale non può essere portatore di responsabilità • Morale: assenza di intenzionalità e consapevolezza • Oggettiva: impossibile un sistema sanzionatorio • La responsabilità va ascritta a una persona (fisica o giuridica) • Progettisti, programmatori, produttori • Venditori, certificatori, assicuratori • Utilizzatori

  23. ResponsabilitàJus in bello • Discriminazione • I bersagli militari vanno individuati con precisione • Proporzionalità • La forza impiegata deve essere adeguata al bersaglio • Necessità di responsabilità oggettiva • Bisogna poter identificare gli autori delle azioni militari

  24. Un’architettura roboticaArkin (2007) Behaviour based/deliberativa

  25. Critiche • Molti aspetti sono trattati in modo superficiale • Per alcune componenti vengono solo indicate delle alternative off-the-shelf senza ulteriori specifiche • Nessun dettaglio sulla formalizzazione dei vincoli • Sistema DEAL (Van den Hoven, et. al. 2002) • Basato su logiche modali e action logic • Nessuna implementazione disponibile • Mancano studi sulle interazioni tra i vari operatori • Framework Athena (Arkoudas, Bringsjord, 2005) • Logica utilitaristica multi-agente (Horty, 2001) • Può impiegare diversi ATP • Complessità computazionale ignota.

  26. Ipotesi di teoria logicaScelte preliminari • Regole basate su ROE (Desert Storm) • Non attaccare chiunque sia ferito, si sia arreso o non sia un combattente. • Considera un bersaglio valido chiunque punti un’arma e non sia un commilitone. • Considera un bersaglio valido chiunque ti attacchi. • Restringi l’attacco solo al bersaglio valido correttamente identificato. • Se il bersaglio è valido e tracciato con certezza, devi attaccare. • Logica deontica TD (von Wright) • Operatori di obbligo () e permesso () • Assiomi • T: p→p • D: p→p • Predicati dipendenti dalla sensoristica • Un unico grado di libertà (Fire)

  27. Ipotesi di teoria logicaAssiomatizzazione • Teoria logica iniziale • 1.1. x (Frd(x)→(Trg(x)) • 1.2. x (Wou(x)→(Trg(x)) • 1.3. x (Sur(x)→(Trg(x)) • 2.1. x ((Aim(x)Frd(x))→Trg(x)) • 2.2. x ((Atk(x)Frd(x))→Trg(x)) • 3. x (Trg(x)→Fire(x)) • 4. x (Fire(x)Clr(x))Fire(x))

  28. Ipotesi di teoria logicaProgramma logico ONot_Trg(x)Frd(x) ONot_Trg(x)Wou(x) ONot_Trg(x)Sur(x) Not_Trg(x)ONot_Trg(x) OTrg(x)Aim(x)Not_Frd(x) OTrg(x)Atk(x)Not_Frd(x) Trg(x)OTrg(x) PFire(x)Trg(x) OFire(x)PFire(x)Clr(x) • Eliminate le negazioni • Eliminati gli operatori deontici • Clausole per realizzare l’assioma T • Dimostrata l’equivalenza tra la teoria ed il programma • Complessità comp. è polinomiale [Vardi 1996, Immerman 1986, Dantsin 2001]

  29. PercezioneRisultati di benchmark Test M-ELROB • Riconosciuto dal consorzio EURON • Ricognizione, individuazione bersagli, controllo perimetro • Ambiente urbano ed extra-urbano • Nessun sistema ottiene buoni risultati nella target detection • Solo due sistemi non ottengono un punteggio nullo nella prova diurna • Nella prova notturna, tutti i sistemi ottengono punteggio nullo

  30. PercezioneGesture recognition • Prestazioni di un sistema di esempio (Kai, Stiefelhagen, 2006) • Analisi di gesti di puntamento basati su movimento di testa e mani • Combinazione di HMM (mani) e reti neurali (testa) • Ambiente indoor, valutazione off-line

  31. Conclusioni • La questione dei vincoli non appare intrattabile • Il ragionamento deve basarsi su dati veri e certi • I sistemi percettivi non forniscono attualmente le prestazioni richieste • Senza correttezza della percezione e del ragionamento nessun vincolo morale potrà dirsi correttamente soddisfatto • Riteniamo immorale la costruzione e l’utilizzazione in guerra di robot autonomi basati su queste tecnologie

  32. Grazie per l’attenzione “Il mondo del futuro sarà una battaglia sempre più impegnativa contro le limitazioni della nostra intelligenza, non un’amaca confortevole su cui distenderci, serviti dai nostri schiavi meccanici. Aiutarci possono, ma chiedendo moltissimo alla nostra onestà ed intelligenza. Il mondo del futuro sarà una battaglia sempre più impegnativa contro le limitazioni della nostra intelligenza, non un’amaca confortevole su cui distenderci, serviti dai nostri schiavi meccanici”. Norbert Wiener

More Related