- Pepper past zijn gedrag aan en verleidt klanten om te kopen
- Worden gevangenen straks door robotbewakers gefouilleerd?
- Kanae Chihira is levensecht, misschien zelfs wel té echt
- Hoe ‘menselijk’ vinden wij dat robots mogen zijn?
- Hoeveel autonomie zijn we bereid onze mensachtige robots te geven?
- Robots menselijke waarden bijbrengen zodat ze in staat zijn om te oordelen
- Verantwoordelijkheid nemen, schuld hebben en van fouten leren
Humanoïde robots behoren al lang niet meer alleen thuis in science fictionfilms. Volgens de Europese Unie zien we ze binnen vijf jaar in winkels, hotels, zorginstellingen, bij ons thuis en zelfs in gevangenissen. De nieuwste humanoïde robots zijn uitgerust met sensoren, camera’s en touchscreens en geven patiënten hun medicatie, serveren maaltijden, houden mensen gezelschap en waarschuwen medisch personeel in geval van nood. De robots kunnen kinderen verhaaltjes voorlezen voor het slapen gaan en hen zelfs ophalen van school. Ze worden ingezet om klanten te helpen met informatie, toeristen bij de hotelreceptie te woord te staan of gevangenen in de gaten te houden. Ze zijn al dusdanig ontwikkeld dat zij iemands gedrag door middel van gezichts- en spraakherkenningstechnologie kunnen observeren. Ook kunnen ze leren hoe ze iemand moeten benaderen of op iemand moeten reageren. Hun eigenschappen, zelfs hun stemgeluid, kunnen allemaal aangepast worden. Worden onze menselijke verzorgers, winkelpersoneel en beveiligingsmedewerkers in de toekomst vervangen door deze nieuwe humanoïde robots? Welke soorten zijn er al en zijn sommigen van hen straks nog van echt te onderscheiden?
1. Pepper past zijn gedrag aan en verleidt klanten om te kopen
Pepper, de geavanceerde KI ontwikkeld door SoftBank en Aldebaran, is een goed voorbeeld van een humanoïde robot die al in gebruik is. Hij is 1,20 m hoog en kan gezichtsuitdrukkingen analyseren, met mensen communiceren en hen assisteren. Pepper ziet er grappig, haast schattig uit, net een grote plastic speelgoedpop op wielen. Hij komt je al rollend begroeten en draait zijn gezicht naar je toe als je iets zegt. Peppers hoofd is voorzien van 2D- en 3D-camera’s, sensoren en multidirectionele microfoons. In zijn handen zitten aanraaksensoren en zijn torso is uitgerust met laser- en sonartechnologie, gyroscopen en bumpersensoren. De speelgoedachtige robot kan gebruikt worden in winkels en in de horeca, maar ook op scholen en universiteiten. Pepper kan observeren, analyseren en zijn gedrag aanpassen op basis van emoties die hij aan de hand van gezichtsherkenningstechnologie registreert, zoals blijheid, boosheid of verdriet. Er zijn in winkels in Japan en Europa al meer dan 100.000 Peppers ingezet. Ze weten hoeveel tijd je in de winkel doorbrengt, wat je al gekocht hebt en in welke producten je nog meer geïnteresseerd bent. Hij knippert met zijn grote ogen en verleidt je om nóg meer te kopen door bijvoorbeeld te zeggen: ‘U krijgt vandaag 30% korting op die laptop.’ Hoewel dit indrukwekkend is vinden sommigen deze geavanceerde tracking-technologie te ver gaan en maken zij zich zorgen om hun privacy. Maar uiteindelijk hangt de ernst van de privacyinbreuk natuurlijk af van de manier waarop de eindgebruiker – het bedrijf dat Pepper inzet – met de informatie van zijn klanten omgaat.
2. Worden gevangenen straks door robotbewakers gefouilleerd?
In een gevangenis in Pohang in Zuid-Korea wordt de eerste robotbewaker ter wereld getest. De robot is ontwikkeld door het Asian Forum for Corrections, het Electronics and Telecommunications Research Institute en fabrikant SMEC en is volgens het Forum de toekomst van de gevangenisbeveiliging. De robot is uitgerust met 3D-dieptecamera’s en software die speciaal ontworpen is om het menselijk gedrag te bestuderen en analyseren. De robotcipier is ontwikkeld om de zware werklast van de menselijke bewakers te verlichten en om de gevangenen zelf meer veiligheid te bieden. De robot kan gevangenen tegen incidenten als mishandeling, brandstichting en zelfmoord beschermen door alles wat er in een cel of gemeenschappelijke ruimte gebeurt nauwlettend in de gaten te houden. Bovendien is hij in staat om verdachte of ongewone situaties met patroonherkenningsalgoritmen, gericht op potentieel probleemgedrag, te analyseren.
In het geval van potentiële probleemsituaties stuurt de robot waarschuwingen zodat gevangenbewaarders op tijd kunnen ingrijpen en voorkomen dat verdachte situaties escaleren tot echte problemen. Dankzij het draadloze communicatiesysteem kunnen cipiers ook op afstand met gevangenen in contact blijven, zonder de controlekamer te hoeven verlaten. De navigatiesensoren in de plafonds van de gangen stellen de robot in staat om een gevangenis zelfstandig te patrouilleren, maar met een iPad kan hij ook handmatig bestuurd worden. De autoriteiten zijn optimistisch en hopen dat de robotbewakers tot meer veiligheid en een daling van de arbeidskosten zullen leiden. Autonome fouilleringsvaardigheid is een van de volgende ontwikkelingsfases van deze robots, maar niet alle betrokken partijen, met name de potentiële gebruikers, zijn klaar voor een dergelijke volgende stap.
3. Kanae Chihira is levensecht, misschien zelfs wel té echt
Kanae Chihira, de opvolger van Aiko Chihira en Junko Chihira, is de nieuwste humanoïde robot van Toshiba. Ze praat en beweegt zich nog menselijker dan haar voorgangers. Tijdens het praten knippert Kanae met haar ogen en maken haar lippen soepele bewegingen. Ze is geprogrammeerd met diverse menselijke gezichtsuitdrukkingen en begroet bezoekers in het Japans, Chinees, Engels, Duits en zelfs met gebarentaal. Haar voorganger Aiko werkt al enige tijd in een warenhuis in Tokyo, waar ze klanten begroet en hen eenvoudige informatie geeft over de winkel. De huidige Chihira-robots kunnen bezoekers nu alleen nog voorgeprogrammeerde antwoorden geven maar de nieuwe versies worden met spraakherkenningstechnologie uitgerust waardoor ze echt op vragen kunnen reageren. Toshiba werkt aan de ontwikkeling van grote hoeveelheden robots als Kanae, Junko en Aiko, die toeristen tijdens de Olympische Spelen in 2020 gaan assisteren. Dit type humanoïde robot kan echter ook uitstekend in de gezondheids- en zorgsector ingezet worden.
4. Hoe ‘menselijk’ vinden wij dat robots mogen zijn?
Enquêtes in Japan en de Verenigde Staten hebben uitgewezen dat de meningen over hoe menselijk humanoïde robots zouden moeten zijn nogal uiteen lopen. Japanners willen het liefst dat robots niet van mensen te onderscheiden zijn, terwijl men in het Westen liever wel weet of men met een robot te maken heeft. Volgens Noel Sharkey, roboticist aan de Universiteit van Sheffield, neigt Toshiba’s Kanea robot naar ‘uncanny valley’, een uitdrukking die aangeeft dat mensen zich ongemakkelijk of onprettig voelen als een robot te veel op een mens lijkt.
Hoe dan ook worden robots die zorgrollen vervullen waarschijnlijk steeds menselijker, en niet alleen qua uiterlijk. Veel roboticaspecialisten zijn van mening dat robots in deze sectoren in staat moeten zijn om spraak en mimiek te herkennen. Ook moeten zij een soort van persoonlijkheid hebben of zich sociaal kunnen gedragen. Maar waar leggen we de grens? Willen we echt dat robots meer autonomie krijgen, meer initiatief nemen, meer persoonlijkheid hebben en er precies zo uitzien als een mens? Willen we dat het wezens worden met emoties? Sommigen zijn van mening dat robots daardoor bewuster met mensen kunnen omgaan, gevaarlijke situaties kunnen herkennen en in kunnen grijpen als er iets verkeerd gaat. Anderen beweren dat we hen niet te veel intelligentie moeten geven en de touwtjes te allen tijde stevig in handen moeten houden.
5. Hoeveel autonomie zijn we bereid onze mensachtige robots te geven?
Misschien moeten we een gulden middenweg zien te vinden. Afhankelijk van de taak van de robot en de omgeving waar de robot wordt ingezet, kan hij worden ontworpen met diverse gradaties in menselijke trekken, intelligentie, sociale vaardigheden en autonomie. Er is onlangs research gedaan naar hoeveel autonomie mensen bereid zouden zijn een robot te geven, bijvoorbeeld tijdens schoonmaakwerk. Het onderzoek ‘Wie is de baas? Controle en robotangst tijdens mens-robotinteractie’ van de universiteit van Hertfordshire leverde interessante resultaten op. Hoe steviger deelnemers aan het onderzoek de touwtjes normaalgesproken in handen hielden en hoe angstiger ze waren voor robots, des te meer initiatief ze uiteindelijk van een robot verwachtten, en des te meer ze bereid waren om een robot autonoom te laten werken. En dat is nogal paradoxaal.
Deelnemers aan de studie konden kiezen uit de volgende opties:
- Het handmatig inschakelen van de schoonmaakrobot
- De robot op afstand instrueren om zichzelf in te schakelen
- De schoonmaakrobot zichzelf laten inschakelen als het opmerkt dat er schoongemaakt moet worden
De meeste van de over het algemeen ‘robot-angstige’ deelnemers gaven er eigenlijk de voorkeur aan om hun schoonmaakrobot zijn taken zelfstandig te laten uitvoeren, zonder hem opdracht te hoeven geven. Een verklaring voor dit paradoxale resultaat zou kunnen zijn dat we nu al heel vertrouwd zijn met autonome of semi-autonome technologie. Voorbeelden hiervan zijn onze smartphones, slimme apparaten en wearables. Slimme sociale robots zijn dan ook echt niet meer dan een logische volgende stap. Binnenkort kopen we hen net zoals we tablets en andere apparaten kopen en uiteindelijk komen ze er ook in alle soorten en maten.
6. Robots menselijke waarden bijbrengen zodat ze in staat zijn om te oordelen
Hoewel we steeds meer gewend raken aan autonome of semi-autonome technologie, moeten we er toch voor zorgen dat KI beslissingen neemt die overeenkomen met onze menselijke normen en waarden. Deze beslissingen moeten goed worden gestructureerd, zodat we geen situaties creëren zoals de verschrikkingen die we in sommige science fictionfilms zien. Selman en Joseph Halpern, onderzoekers van het Centre for Human-Compatible Artificial Intelligence van Berkeley University in Californië, werken samen met wetenschappers en deskundigen in de filosofie, economie en sociale wetenschappen. Hun onderzoek richt zich op het gebied van ‘decision theory’-informatica. Een van de projecten waar ze in het verleden aan werkten was het veiliger maken van Tesla’s zelfrijdende auto’s. Tijdens deze projecten lag de focus op factoren als besluitvorming en morele dilemma’s. Zelfrijdende voertuigen moeten beslissingen nemen die gepaard gaan met risico, zoals een langzaam rijdende auto inhalen. Een van de vele uitdagingen waarmee zij geconfronteerd werden was: moet je zelfrijdende auto jou, de bestuurder, beschermen, zelfs als dit ten koste gaat van het leven van andere weggebruikers?
7. Verantwoordelijkheid nemen, schuld hebben en van fouten leren
Een andere uitdaging is de kwestie van verantwoordelijkheid. Zolang een robot of een andere machine eigendom is van iemand en taken in opdracht uitvoert, is de eigenaar aansprakelijk als er iets misgaat. Maar wat gebeurt er als robots met ethiek en morele competentie worden geprogrammeerd, of als ze zich deze vaardigheden zelf kunnen aanleren? Iemand verantwoordelijk stellen is onderdeel van sociale regelgeving. We geven anderen de schuld, in de hoop dat ze gevoelig zijn voor morele kritiek en hun toekomstige gedrag veranderen. Een robot kan alleen verantwoordelijk gesteld worden en verantwoording nemen als gedragsveranderingen in zijn intelligentie zijn geprogrammeerd, als hij angst kent en kan reageren op kritiek. Zolang dat niet het geval is, is er geen sprake van een ‘sociaal en moreel’ wezen. Maar in plaats van ‘angst’ op te nemen in hun architectuur, als motivator om een ‘moreel wezen’ te worden, kunnen we deze robots misschien beter programmeren met de wil om het beste sociale en morele wezen te zijn.
Konden we hetzelfde maar met mensen doen.
Share via: