Robots kunnen inmiddels tekenen, zingen en in de toekomst zelfs emoties ontwikkelen

Industries: Algemeen
Trends: Robotics
  • Zachte, bionische en intelligente hand van Festo levert indrukwekkend vingerwerk
  • Robotkunstenares Ai-DA tekent live portretten na met potlood of inkt
  • De kunstmatig intelligente Alter 3 zingt opera en dirigeert een menselijk orkest
  • Robot drukt emoties uit met kippenvel of stekels
  • Robots en liefde: een match made in heaven?
  • Robots lijken in de toekomst meer op mensen dan op machines

Toen de eerste robots een paar decennia geleden in fabrieken aan het werk gingen waren ze groot, gevaarlijk voor mensen en beperkt in hun mogelijkheden. Maar jaren van intensief onderzoek en ontwikkeling op het gebied van robotica beginnen steeds meer vruchten af ​​te werpen. Robots worden tegenwoordig ontworpen om voorzichtig zij aan zij met mensen samen te werken. En naarmate ze geavanceerder worden, krijgen ze ook steeds meer toepassingen naast het automatiseren van eenvoudig en repetitief werk. De nieuwe generatie robots is eigenlijk ‘menselijker’ dan ooit tevoren.

Infographic met de waarde van de wereldwijde KI-robotmarkt in 2018 en de geschatte waarde in 2026

Velen zijn echter nog steeds bezorgd dat robotintelligentie uiteindelijk de onze zal overtreffen. En er bestaan inderdaad al robots die zeer complexe menselijke taken kunnen uitvoeren en zelfs ‘gevoelens’ kunnen uiten – en dat is eigenlijk nog maar het begin. Verified Market Research voorspelt dat de wereldwijde KI-roboticamarkt in 2026 een waarde van $23,92 miljard zal bereiken. Vorig jaar was dat nog $3,24 miljard.

Zachte, bionische en intelligente hand van Festo levert indrukwekkend vingerwerk

Het Duitse automatiseringsbedrijf Festo heeft een robotarm ontwikkeld met een bionische hand. De BionicSoftHand is bedekt met een siliconenhuid die bijna net zo zacht is als de menselijke huid. In tegenstelling tot conventionele robothanden heeft de BionicSoftHand geen stugge skeletstructuur, wat het risico dat de robotarm iemand verwondt tijdens samenwerken beperkt. De hand bestaat uit “opblaasbare balgen bedekt met een soort huid die gemaakt is van elastische vezels, waardoor deze de flexibele bewegingen van een menselijke hand nauwkeurig kan nabootsen”. De hand is bovendien uitgerust met traagheids-, kracht- en aanraaksensoren die het mogelijk maken om allerlei verschillende objecten vast te pakken. Tijdens het testen kreeg de robot een opdracht om een ​​12-zijdig voorwerp vast te houden en deze met zeer indrukwekkend vingerwerk zo te draaien dat één ​​specifieke zijde naar boven zou wijzen. Dankzij de ingebouwde kunstmatige intelligentie en machine learning wist de hand – al lerend van zijn eigen fouten – deze taak uiteindelijk succesvol uit te voeren. Op dit moment werkt de robot alleen met objecten, maar het team van Festo is van plan om de technologie te verbeteren voor gebruik in fabrieken en bij auto-onderhoud of computerdiensten, omdat “reparateurs soms behoefte hebben aan hulp van een wendbare derde hand”.

Robotkunstenares Ai-DA tekent live portretten na met potlood of inkt

Oplossingen als die van Festo zijn ideaal om mensen in allerlei (werk)situaties een helpende hand te bieden. Maar sommige onderzoekers zijn benieuwd naar wat robots naast praktische werktaken uitvoeren nog meer kunnen – zoals bijvoorbeeld kunst maken. Een zo’n robot is Ai-DA, ontwikkeld door galerie-eigenaar Aidan Meller uit het Verenigd Koninkrijk. Deze robotkunstenaar die portretten kan tekenen en schilderen is vernoemd naar de Britse Ada Lovelace, dochter van de Engelse dichter Lord Byron. (Het was overigens Ada die het eerste computerprogramma ooit schreef voor de eerste digitale computer – de Analytical Engine – van Charles Babbage. Lovelace werd in 1815 geboren als Ada Byron en werd door haar moeder geïnspireerd om les te nemen in wis- en natuurkunde. In 1835 trouwde ze met de graaf van Lovelace).

Het lichaam van de Ai-DA-robot werd gebouwd door het Britse Engineered Arts. Het hoofd is bedekt met siliconenhuid en haar tanden en tandvlees komen uit een 3D-printer. Dankzij haar bionische ogen, die uitgerust zijn met camera’s, kan Ai-DA een persoon ‘zien’ en als het ware uit de achtergrond filteren, waarna ze er met inkt of potlood een portret van tekent. Meller vertelt dat Ai-DA zeer strakke tekeningen en abstracte kunst kan creëren en het plan is om de robot zo te ontwikkelen dat ze in de toekomst ook kan schilderen. Bovendien bezit Ai-DA ook enkele sociale vaardigheden, zodat ze ook kan worden gebruikt voor publieke demonstraties en performance art. Ai-DA is in mei 2019 voor het eerst te zien tijdens de tentoonstelling Unsecured Futures bij de Univerisity of Oxford. Een paar maanden daarna zullen een aantal van haar tekeningen op een tentoonstelling in Londen te bewonderen zijn.

“We willen de grenzen verleggen van wat KI kan doen”, vertelt Meller. “We gebruiken haar om na te denken over hoe we KI vandaag de dag gebruiken. Gebruiken we het alleen voor winstbejag met schadelijke gevolgen voor ons mensen, of gaan we de technologie inzetten om goede dingen te doen?”

De kunstmatig intelligente Alter 3 zingt opera en dirigeert een menselijk orkes

Portret-tekenende robots zijn natuurlijk al zeer indrukwekkend, maar wat dacht je van robots die kunnen zingen? Begin 2019 werd in het New National Theatre (NNT) in Tokio de mensachtige robot Alter 3 aan het publiek voorgesteld. Alter 3, ontwikkeld door onderzoekers van de universiteit van Osaka en de universiteit van Tokio, kan opera zingen en zelfs een menselijk orkest dirigeren. De robot wordt aangedreven door een KI neuraal netwerk en kan niet alleen autonoom zijn vingers, hoofd, armen en bovenlichaam bewegen, maar zelfs verschillende gezichtsuitdrukkingen laten zien. Na zijn debuut in Tokio werd de robot gepresenteerd op het Hi Robot – Das Mensch Maschine Festival in Düsseldorf, en van mei tot augustus 2019 kun je Alter 3 bovendien in Londen bewonderen.

Het New National Theatre is van plan om een opera te componeren waarin Alter 3 een hoofdrol krijgt. De show is nog in de maak en gaat ergens in 2020 in première. Alter 3 zal samen met een kinderkoor, andere operazangers, het koor van NNT en het Tokyo Philharmonic Orchestra optreden. Keiichiro Shibuya, die de leiding heeft over het componeren van de muziek voor de nieuwe opera, vertelt trots: “Dit is iets dat nog nooit eerder in een opera is gedaan”.

Volgens Mahoro Uchida, NNT’s curator en producent van Alter 3 buiten Japan: “Sinds ons eerste optreden met Alter in 2016 heeft het onze bezoekers al talloze keren verrast, diep emotioneel geraakt, stof tot nadenken geboden en de grenzen tussen mens en machine, het echte leven en software, doen vervagen”.

Alter 3 is onderdeel van het nieuwe Artificial Life (Alife) onderzoeksproject van Mixi Corporation, Tokyo National University, Osaka University en Warner Music Japan Co. Ltd. Het doel is om de toekomst van menselijke communicatie en nieuwe vormen van entertainment te verkennen en fundamentele vragen te beantwoorden, zoals: kan de robot op eigen kracht, door interactie met de buitenwereld, een eigen visie op het leven ontwikkelen? En – wat is dan de betekenis van het leven?

Robot drukt emoties uit met kippenvel of stekels

In de afgelopen jaren zijn er verschillende robots de revue gepasseerd die menselijke gezichtsuitdrukkingen – zoals glimlachen of verbaasd kijken – kunnen kopiëren. Een team van onderzoekers aan Cornell University heeft binnen deze ontwikkelingen nu een interessante volgende stap gezet.

Het team ontwierp een testrobot die zijn gemoedstoestand tot uitdrukking kan brengen. Onder de huid van de robot bevindt zich een rooster van textuur-units waarvan de vorm kan veranderen, op basis van de ‘gevoelens’ van de robot. De onderzoekers wilden een andere expressievorm ontwikkelen dan de standaard menselijke expressie. Ze lieten zich door dieren inspireren, die vaak lichamelijke, non-verbale signalen gebruiken om hun emoties tot uiting te brengen. De robot met de van textuur veranderende huid kan zich nu op twee verschillende manieren ‘uiten’: met kippenvel of stekels. Hoewel er voor de robot nog geen specifieke toepassingen bedacht zijn, zijn de wetenschappers tevreden dat ze kunnen laten zien wat er mogelijk is. Wellicht is dit een eerste stap in de ontwikkeling van meer geavanceerde sociale robots.

Robots en liefde: een match made in heaven?

Niet alleen kunnen toekomstige robots hun emoties uiten, waarschijnlijk zullen ze ons ook kunnen ‘liefhebben’ – als het ware. Tenminste, dat is de mening van de New Yorkse ontwerper en DJ Fei Liu. Omdat Lui zich er pijnlijk van bewust is hoe moeilijk het kan zijn om die ene speciale persoon te vinden, besloot zij haar geliefde zelf te creëren. Ze noemt haar robot Gabriel2052 – gebaseerd op de bestaande mannelijke seksrobot Gabriel van Sinthetics. Het nummer 2052 is geïnspireerd op het jaar waarin we volgens sommige experts allemaal met een robot getrouwd zijn. Lui ontwikkelt de robot op basis van open-source software en hardware. Behalve dat ze met Gabriel2052 een einde probeert te maken aan eenzaamheid, zou het ontwikkelen van de ideale romantische metgezel “vrouwen ook moeten inspireren om nieuwe technische vaardigheden te leren die de vertegenwoordiging van vrouwelijke seksualiteit in de robotica bevorderen”. De seksrobotsindustrie wordt nog steeds gedomineerd door mannelijke interesses en perspectieven en Liu wil daar verandering in brengen.

Om de handelingen van Gabriel2052 menselijker te maken, heeft ze een functie ingebouwd waarmee hij spontane, niet-voorgeprogrammeerde gesprekken kan voeren met zijn menselijke partner. Om dit mogelijk te maken ontwikkelt Liu een chatbot met gebruik van een database van oude sms-berichten die Liu en haar ex-vriend ooit naar elkaar stuurden. Op basis van die berichten leert ze de robot met Lui communiceren. Wat Liu wil is een robot die haar kan uitdagen en zelfs in staat is om de ‘relatie’ zelfstandig te beëindigen.

Robots lijken in de toekomst meer op mensen dan op machines

De adoptie van robotica breidt zich over steeds meer bedrijfstakken uit. En hoewel de meningen over deze technologie enorm uiteenlopend zijn, blijven de ontwikkelingen in robotica en machine learning elkaar in razend tempo opvolgen. Wat betekent dit voor de toekomst? Zullen de grenzen tussen mensen en machines uiteindelijk steeds verder vervagen? Volgens Guy Kirkwood, chief evangelist bij softwarebedrijf UiPath is dat zeker het geval. Bovendien zegt hij dat elke persoon uiteindelijk zijn eigen robot(partner) zal hebben.

Maar dergelijke robots zullen wel heel anders zijn dan de robots die we nu kennen. Futuristische robots die zijn ontworpen om ons gedrag na te bootsen zullen steeds beter worden in het overnemen van allerlei menselijke taken. Met verdere verbeteringen zullen deze levensechte robots uiteindelijk ook in staat zijn om onze emoties te ‘lezen’ en daar bovendien adequaat op te reageren. Misschien ontwikkelen ze zelfs hun eigen ‘gevoelens’. Maar voordat wij mensen bereid zijn om deze technologie te omarmen – alsook het idee dat wij naar alle waarschijnlijkheid zelfs relaties zullen hebben met robots – moeten er nog heel wat ontwikkelingen in de robotica plaatsvinden.

We zitten middenin een technologische revolutie en de trends, technologieën en innovaties die we verwachten zijn stuk voor stuk grensverleggend …

Gratis trendservice

Ontvang elke maand gratis de laatste inzichten, onderzoeksmateriaal, e-books, white papers en artikelen van ons onderzoeksteam!