10 grote uitdagingen binnen robotica
Ethiek en (cyber)veiligheid (uitdaging 10)
In ‘The Grand Challenges of Science Robotics’ worden de tien grote uitdagingen binnen robotica beschreven. De laatste uitdaging hangt samen met ethiek en (cyber)veiligheid van robots.
10 Ethiek en veiligheid
De toenemende mate van autonomie en intelligentie van robots en toenemende mens-machine-interactie leiden tot een verhoogde waakzaamheid met betrekking tot mogelijke legale en ethische barrières.
Ethische uitdagingen
Autonome robots, voortbewogen door AI, kunnen ervoor zorgen dat de mens minder of geen verantwoordelijkheid opneemt in geval van falen en deze afschuift op de machine. Een recent voorstel van de EU om bepaalde vormen van AI te beschouwen als elektronische personen zal deze problematiek enkel maar verscherpen, aldus de auteurs van de studie. Een nieuwe, gedistribueerde vorm van verantwoordelijkheid zal legaal moeten bepaald worden.
Het ‘valse’ vertrouwen in AI kan ertoe leiden dat (delicate) taken, die op zijn minst supervisie vereisen, in hun volledigheid gedelegeerd worden aan robots. De auteurs wijzen in die context op een probleem in de huidige EU general data protection regulation (GDPR). Daarnaast kunnen AI en robots leiden tot een negatieve verschuiving in de vaardigheden en tewerkstelling van arbeiders en de mens in het algemeen. De auteurs nuanceren dit met een voorbeeld. Zo zullen piloten nog steeds moeten weten hoe ze een vliegtuig moeten landen, in het geval de AI erin faalt.
Het introduceren van AI om routines verder te automatiseren kan ongewenst leiden tot ongeplande en ongewenste veranderingen in menselijk gedragingen en kunnen leiden tot het inperken van de menselijke vrijheid.
‘Last but not least’ is misbruik van robotica en AI een grote uitdaging. Volgens de studie zit het grootste probleem in de gebruiker van het gereedschap; dynamiet was oorspronkelijk ook voor andere doeleinden ontwikkeld. Kant geeft hierop als antwoord dat ‘AI en robotica zou kunnen worden ontworpen en gebruikt om elk mens altijd als een doel te behandelen en nooit alleen als een middel’.

Uitdagingen op vlak van veiligheid
Een van de problemen die men voorziet met toenemend gebruik van AI in robotica is het gebrek aan controle over een AI-algoritme en de toename op onvoorziene uitkomsten. Het contrast met een PLC is hier enorm.
Daarnaast beschrijft men ook het probleem van escalatie waarbij men de autonomie en het voortdurend bijleren van AI linkt aan het bedreigen van onze samenleving en infrastructuur. De problematiek die Capek reeds beschreef in 1920 lijkt niet zo veraf meer. Aandacht tijdens ontwikkeling van AI, normering en regelgeving bieden een antwoord.

