Ethisch besef in algoritmen gieten

Volgens Lodewijk Asscher zijn robots de nieuwe baantjespikkende Polen en Roemenen, maar robotontwikkelaars zijn dat soort doemscenario's ver voorbij. Zij zijn allang bezig met de volgende fase: ethisch besef in algoritmen gieten. Deze week schrijft Alan Winfield, hoogleraar robotica in Bristol, over zijn fascinerende experimenten met de Consequence Engine, een besturingssysteem dat robots in staat stelt de gevolgen van hun acties te modelleren.

Isaac Asimov, sciencefictionschrijver, biochemicus en nog veel meer, formuleerde in 1942 al zijn befaamde Wetten van de Robotica, met als belangrijkste: een robot mag een mens geen kwaad berokkenen, en mag niet toestaan dat een mens iets overkomt. Daar trekken robots zich overigens weinig van aan: de film-, thriller- en literatuurgeschiedenis is vergeven van de monsterlijke machines die zich tegen hun makers keren.

Maar Winfields robot is lief. In het experiment lopen zijn A-robot en een mens elk vanuit een andere positie recht op een gat in de grond af. De robot 'weet' van het gat en moet voorkomen dat hij erin valt. De mens weet van niets en dreigt te vallen. Het algoritme is doodsimpel: If for all robot actions the human is equally safe THEN (* default safe actions *), output safe actions, ELSE (* ethical action *) , output action(s) for least unsafe human outcome(s).

En het werkt! De A-robot denkt niet alleen aan zijn eigen hachje, maar redt in 100 procent van de gevallen de nietsvermoedende passant. Winfield houdt het erop dat hij een robot 'met minimaal ethisch vermogen' heeft ontwikkeld.

Nu de Consequence Engine nog inbouwen in Obama's drones die hun robotachterste afvegen met alle wetten van Asimov, en de wereld is een klein stukje beter geworden.

Meer over