Aan de hand van een voorbeeld uit de film ,2001: A Space Odyssey, laat Norman zien dat computers geen werkelijke emoties kunnen bezitten maar wel een overlevingsinstinct kunnen hebben en daardoor gemaakte emoties in kunnen zetten.
Dit is ook het toekomst beeld voor de computers/robots die nog moeten komen. Ze zullen de emoties nodig hebben om dezelfde reden als de mens: het menselijke emotiesysteem speelt een essentiële rol in overleven, sociale interactie, coöperatie en leren. Volgens Norman worden het niet dezelfde emoties als mensen, maar emoties die passen bij de machines zelf.

Robots bestaan al, de meeste zijn vrij simpele automatische armen en gereedschappen in fabrieken, maar ze zijn aan het verbeteren in kracht en mogelijkheden en verbreden zich voor meer verschillende activiteiten en plaatsen.
“With time, as these robots gain in capability, they will come to possess full-fledged emotions: fear and anxiety when in dangerous situations, pleasure when accomplishing a desired goal, pride in the quality of their work, and subservience and obedience to their owners. Because many of these robots will work in the home environment, interacting with people and others household robots, they will need to display their emotions, to have something analogous to facial expressions and body language.” [[#_edn1|[i]]] Het is alleen moeilijk om de juiste mix te vinden van emoties en intelligentie.


Emotional Things

Emotie zorgt ervoor dat de mens intelligentie omzet in handelingen. “Without pride in the quality of our actions, why would we endeavor to do better?[[#_edn1|[i]]]
Positieve emoties zijn van groot belang om te leren en nieuwsgierigheid te behouden. Hoewel de negatieve emoties ons behouden van gevaar, zijn het de positieve emoties die het leven leefbaar maken, die ons belonen en ons laten streven naar beter.
Daarnaast is er niet altijd voldoende informatie aanwezig om bepaalde besluiten te maken. Hoe kan een robot zonder emotie dan een keuze maken? Robots hebben dus volgens Norman een soort emotie nodig om bepaalde keuzes te maken.
Voorbeelden van die keuzes zijn: “Will that walkway hold the robot’s weight? Is there some danger lurking behind the post?” De robots moeten geen kopieën van de mens worden maar het systeem moet aangepast worden aan de behoeften van de robot.

Emotional Robots

In dit gedeelte van hoofdstuk 6 wordt beschreven welke taken de robots van de mens kunnen overnemen in de toekomst met betrekking op het huishouden. Taken zoals het schoonmaken, opruimen, wassen, drinken brengen, op de kinderen passen etc. Deze ontwikkelingen zullen vragen om een grote verandering van aanpassing bij de mens en de apparaten om ons heen. Maar dit is herkenbaar bij de technologieën: “we reconfigure the way we live and work to make things possible fot our machines to function.” Een voorbeeld hiervan is de komst van de auto. Voor dit system hebben we onze huizen verbouwt voor een garage, oprijlanen, snelwegen, parkeerruimtes etc. De robots die de taken in huis overnemen zullen elk hun eigen functie hebben die gespecialiseerd zijn in 1 ding in het huishouden.
Ook wordt er besproken wat de verschijningsvorm van de robots zullen worden. Het zou handig zijn als de robots camera’s als ogen hebben en benen als de robot ook trappen af moet lopen etc. Maar een robot mensachtig maken kan ook in het nadeel werken. De mens accepteert dat minder goed.

Affect and Emotion in Robots.

De vraag is dan wel welke emoties een robot nodig heeft en welke niet? Het antwoord hierop hang af van de robot, de taken die de robot moet voldoen, de omgeving waarin de robot zich vestigt en hoe het sociale leven van de robot eruit ziet. Communiceert de robot met andere robots, dieren, machines of mensen? Als dat zo is, het moet in staat zijn om de eigen emotionele staat te uiten, en de emoties van de dieren en mensen inschatten waarmee het communiceert.
Het lezen van die emoties kan door het herkennen van de positie van de spieren in het gezicht van een mens, de grootte van de pupillen en de klanken in een stem.

Emoties die o.a. de robots beter kunnen helpen bij de taken en het behouden van een goede staat zijn overrompelingen/verassingen, trots en frustratie.

Machines That Sense Emotion.

In dit gedeelte van hoofdstuk 6 gaat het een stapje verder. Hier wordt niet alleen besproken hoe de robots de emoties kunnen lezen op verschillende manier zodat het bijna onmogelijk wordt voor een mens om die te misleiden. Maar ook hoe een robot kan reageren op die emoties zoals bijvoorbeeld een psychiater, het probleem opsporen van de negatieve emotie en hierop hun taken aanpassen.

Machines That Induce Emotion in People.

“It is surprisingly easy to get people to have an intense emotional experience with even the simplest of computer systems”. Een voorbeeld hiervan is het computer programma Eliza, gemaakt door MIT computer onderzoeker Joseph Weizenbaum. Eliza is een simpel programma dat werkte met een beperkt aantal gesprek scripts die voorgeprogrammeerd zijn. Het zoekt gewoon patronen en reageert daar op. Mensen kunnen misleidt worden door een dergelijk systeem, ze gaan gelozen dat het systeem begrijpt waar ze over praten en werkelijk emoties ervaart.
“We are extremely trusting, which makes us very easy to fool, and very angry when we think we aren’t being taken seriously”.

[[#_ednref1|[i]]] Emotional Design, Donald A. Norman, pagina 166



[1] Emotional Design, Donald A. Norman, pagina 163----
[[#_ednref1|[i]]] Emotional Design, Donald A. Norman, pagina 163