Algoritmi

IMG_20170828_111831.jpgL’ideale sarebbe non farsi mai prendere dalle emozioni: offuscano la tua capacità di giudizio e non sempre si riesce poi ad essere equanimi ed equilibrati di fronte a quello che succede
Siamo in un mondo che produce formule magiche – ora si chiamano “algoritmi” – che permettono di misurare i nostri comportamenti, le nostre abitudini, quello che tendenzialmente compriamo in determinati periodi o come reagiamo davanti a determinate situazioni. Chissà se esistono anche algoritmi che possano evitarmi di scaldarmi troppo di fronte alle scene che vedo in tv in questi giorni e possano garantirmi di prendere la posizione più razionale nei confronti di quello che succede.

Su internet ho scovato il progetto Moral Machine del MIT. Si tratta di un problema informatico di non piccola portata: supponiamo che un’automobile a guida automatica abbia un’avaria ai freni e che si stia dirigendo a tutta velocità verso un muro. L’unico modo per salvare i due occupanti dell’automobile sarebbe sterzare sul marciapiedi dove la vettura però probabilmente falcerebbe cinque persone. Che fare?
La questione, sul sito del MIT, è stata lungamente dibattuta e portata avanti da programmatori o semplici curiosi: ci può essere un criterio puramente statistico (cinque sono più di due) o qualitativo (quale dei due insiemi ha la maggiore aspettativa di vita?) oppure legati alla composizione dei passeggeri della vettura (marito e moglie, madre e figlio) e del gruppo che passeggia lungo la strada.
Cosa dovrebbe fare l’automobile “intelligente”? Si possono programmare scelte morali? Si può creare un algoritmo che ci dica come comportarci di fronte ad una scelta di carattere morale?

Io ho ripensato subito alle leggi della robotica di Asimov:
1. Un robot non può recar danno a un essere umano né può permettere che, a causa del proprio mancato intervento, un essere umano riceva danno.
2. Un robot deve obbedire agli ordini impartiti dagli esseri umani, purché tali ordini non contravvengano alla Prima Legge.
3. Un robot deve proteggere la propria esistenza, purché questa autodifesa non contrasti con la Prima o con la Seconda Legge
Mi sembrano, alla fine dei conti, una buona base di partenza: l’idea morale principale che Asimov sottintende nella programmazione dei propri robot è la sacralità della vita umana. Certo, se si deve scegliere fra due vite umane, anche la macchina probabilmente non saprebbe cosa fare e sospenderebbe il giudizio: forse si spegnerebbe o – in virtù della terza legge – si autodistruggerebbe per evitare di infrangere le prime due norme.

A questo punto, a puro scopo speculativo, vi propongo qualche scenario che forse ci è un po’ più vicino rispetto a quello della macchina robotica: provate ad immaginare cosa farebbe il robot preposto ad intervenire in queste situazioni.
Scenario 1: La guardia costiera robotizzata individua al largo delle coste italiane un barcone carico di migranti clandestini che sta cercando di attraccare sulle nostre sponde. L’ordine principale è quello di respingere il barcone ma questo metterebbe a repentaglio la vita dei viaggiatori.
Scenario 2: La polizia robotizzata deve sgomberare uno stabile occupato abusivamente da famiglie di rifugiati. L’ordine è quello di liberare il palazzo ma i rifugiati oppongono resistenza: si tratta soprattutto di donne e bambini.
Chissà cosa farebbero i robot in queste situazioni? Chissà che tipo di algoritmo dovrebbero adottare?

Mi stupisco un po’ quando sento parlare in tv persone che hanno tutte le risposte in tasca, che ci dicono di affrontare razionalmente i problemi e di non essere emotivi, di non essere, insomma, troppo “umani”: io credo che anche le macchine avrebbero qualche problema a dirimere razionalmente queste situazioni.
Capita, a volte, che le mie idee vengono tacciate di “buonismo”. In effetti, spesso prendo posizione sulla base di criteri meramente quantitativi (il benessere di molti contro il benessere di pochi) oppure qualitativi (persone che stanno male contro persone che stanno bene) mentre invece – mi viene obiettato – le variabili sono ben altre.
Che cosa volete farci? Il mio sarà un bug di programmazione.

Questa voce è stata pubblicata in posts. Contrassegna il permalink.

Rispondi

Inserisci i tuoi dati qui sotto o clicca su un'icona per effettuare l'accesso:

Logo di WordPress.com

Stai commentando usando il tuo account WordPress.com. Chiudi sessione /  Modifica )

Google photo

Stai commentando usando il tuo account Google. Chiudi sessione /  Modifica )

Foto Twitter

Stai commentando usando il tuo account Twitter. Chiudi sessione /  Modifica )

Foto di Facebook

Stai commentando usando il tuo account Facebook. Chiudi sessione /  Modifica )

Connessione a %s...