Non passa certo inosservato il robot poliziotto che pattuglia l’aeroporto di Changi, a Singapore. Si muove su quattro ruote, ha una videocamera che può riprendere a 360° e che si può alzare fino a raggiungere i 2,3 metri di altezza. I filmati registrati saranno conservati negli archivi della polizia per 30 giorni.Sulla parte anteriore spicca un display su cui scorrono messaggi di varia natura.
All’occorrenza il robot poliziotto può emettere il suono di una sirena oppure trasmettere, dai suoi altoparlanti, la voce degli agenti in carne e ossa che si trovano a distanza.
I viaggiatori, spingendo un pulsante rosso che si trova proprio sopra la scritta “police”, possono chiedere aiuto in qualsiasi momento. Ma l’aspetto spigoloso di questa macchina incute più soggezione che empatia.
È molto diversa da “Xavier”, il primo robot poliziotto usato a Singapore nel 2021 – per evitrare gli assembramenti in piena pandemia – a cui i bambini si avvicinavano divertiti e incuriositi, attratti da una figura che sembrava uscita da un cartoon.
Il nuovo robot, entrato da poco in servizio dopo cinque anni di “addestramento”, avrà il compito di “amplificare la presenza della polizia” in aeroporto. Per ora le forze dell’ordine di Singapore ne impiegheranno due, entrambi nel Terminal 4 di Changi.
Ma robot simili saranno progressivamente utilizzati anche sulle strade della città-stato.Quello di Singapore non è il primo tentativo di combattere il crimine con l’aiuto delle macchine. Lo scorso aprile il sindaco di New York, Eric Adams, ha annunciato il ritorno “in servizio” di Digidogs, un cane robot sviluppato da Boston Dynamics che aiuterà gli agenti “in situazioni in cui la vita è a rischio”.
Si tratta di una decisione controversa. Il quadrupede meccanico era già stato annunciato nel 2021. Ma poi, in seguito alle critiche dei cittadini su una nuova forma di sorveglianza che non tiene conto della privacy, il cane robot era stato messo da parte.
Non preoccupa solo il rischio “Grande Fratello”. Gli attivisti per i diritti umani temono che i robot non siano in grado di gestire situazioni in cui è richiesta un’elevata consapevolezza sociale.
“Per esempio durante le proteste in Egitto, nel gennaio 2011, l’esercito si è rifiutato di sparare sui manifestanti, un’azione che ha richiesto un’innata compassione umana e il rispetto per lo stato di diritto” ha detto Rasha Abdul Rahim, di Amnesty International, in un discorso tenuto alcuni anni fa alle Nazioni Unite.
Eppure a San Francisco, proprio a due passi dalla Silicon Valley e dalle sue tecnologie innovative, si discute da tempo della volontà della polizia di introdurre “robot killer” tra le armi a sua disposizione.
I membri del San Francisco Board of Supervisors – l’equivalente di un consiglio cittadino – si è espresso recentemente a favore dell’utilizzo di macchine che possano usare una “forza letale” in circostanze straordinarie, vale a dire “quando il rischio di perdita di vite umane, non importa se civili o agenti, è imminente e le forze dell’ordine non sono in grado di reprimere la minaccia dopo aver utilizzato opzioni alternative o tattiche di riduzione dell’escalation”.
I passi in avanti dell’intelligenza artificiale, che dagli stessi esperti di IA viene considerata un pericolo per la nostra specie, aggiungono una preoccupazione ulteriore: quella che i robot, un giorno, possano ribellarsi ai loro stessi creatori.
Ha fatto riflettere, recentemente, il racconto di una presunta simulazione bellica creata dall’AIr Force Usa in cui un drone guidato da intelligenza artificiale si è ribellato al suo operatore e l’ha ucciso. Anche se l’aeronautica militare statunitense ha smentito la notizia, uno scenario futuro in cui le macchine dotate di IA potrebbero finire fuori controllo per molti è elevato. Repubblica.it