3 vertellenswaardige verhalen over falende ki

Goede voorbeelden en leuke verhalen maken het altijd eenvoudiger om de aandacht van leerlingen te trekken. Als het gaat over kunstmatige intelligentie kan je het natuurlijk hebben over succesvolle platforms als Bitcoin Trader. Bitcoin Trader is een gerenommeerd beleggingsplatform dat kunstmatige intelligentie gebruikt om geautomatiseerd in cryptomunten te beleggen. Er zijn echter ook leukere verhalen om studenten hun aandacht vast te houden. Vooral verhalen over falende kunstmatige intelligentie doen het goed. De volgende drie waargebeurde verhalen mogen daarbij niet ontbreken.

The vodka is good but the meat is rotten
Dit is een heel bekende kreet uit de wereld van kunstmatige intelligentie (ki) en stamt af van een experiment dat in de begindagen van ki werd uitgevoerd. Men heeft toen veel geïnvesteerd om vertaalprogramma's kunstmatige intelligentie te laten gebruiken om zo betere en logischere resultaten te bekomen. Bij wijze van test liet men de Bijbeltekst 'The spirit is willing, but the flesh is weak' (de geest is gewillig, maar het vlees is zwak) naar het Russisch vertalen en vervolgens weer naar het Engels. Men verwachtte natuurlijk net hetzelfde resultaat te bekomen, maar op het scherm verscheen 'The vodka is good but the meat is rotten' (de wodka is goed, maar het vlees is bedorven).

Het klinkt een gekke sprong, maar onlogisch is het niet. Veel van de gebruikte woorden hebben namelijk verschillende betekenissen. 'Spirit' kan bijvoorbeeld niet alleen naar 'geest' worden vertaald, maar ook naar 'sterkedrank'. Met deze tussenstap kwam de intelligente computer uiteindelijk bij wodka uit, want dat is een voorbeeld van sterkedrank en dat begrijpen mensen beter. Verder heeft men het over 'flesh', wat in het Engels niet helemaal hetzelfde is als 'meat'. Ook in het Frans kent men zo'n onderscheid ('viande' en 'chair'), maar in het Russisch en in het Nederlands niet.

Alexa bestelt een poppenhuis en doet het dan nog eens
Het gebeurt natuurlijk wel vaker dat kinderen iets kopen zonder de toestemming van hun ouders. Dat is ook wat recent gebeurde toen Brooke Neitzel, een zesjarig meisje, koekjes en een Kidcraft-poppenhuis bestelde door het gewoon aan Amazon Alexa te vragen. Amazon Alexa maakt gebruik van kunstmatige intelligentie om allerlei opdrachten uit te voeren die je met behulp van je stem doorgeeft. Je kan bijvoorbeeld vragen "Alexa, wat is het weer vandaag?" en Amazon geeft je het antwoord. Het kindje had aan Alexa gevraagd om haar een poppenhuis te bestellen en dat deed de slimme assistent. De moeder had al snel door wat er was gebeurd en voegde een extra beveiligingslaag toe. Het poppenhuis gaf ze aan een plaatselijk ziekenhuis. Toen een nieuwsreporter de gift opmerkte en het zesjarige meisje haar verhaal liet doen, waarbij ze haar eerdere instructie live op de televisie herhaalde, was dit het signaal voor veel meeluisterende Alexa's om poppenhuizen te bestellen.

De sympathieke robot blijkt een vervelende nazi te zijn
In maart 2016 onthulde Microsoft zijn chatbot Tay, een chatbot die gebruikmaakt van kunstmatige intelligentie. Met Tay had Microsoft een bot ontwikkeld die slimmer zou worden door met mensen te spreken en door het gedrag van andere Twitter-gebruikers na te bootsen.

Er werd aan internetgebruikers gevraagd om gesprekken met de chatbot te voeren, zodat de chatbot automatisch zou leren hoe mensen met elkaar communiceren en welke taal ze daarbij hanteren. Men dacht dat Tay zou uitgroeien tot een sociaal intelligente gesprekspartner die over uiteenlopende onderwerpen zou spreken. Een van de eerste dingen die Tay zei, was "can I just say that I’m stoked to meet u? humans are super cool".

Al na enkele uren liep het echter grondig mis en was het humeur van Tay helemaal omgeslagen. Nadat Tay dingen begon te zeggen als "Chill I’m a nice person! I just hate everybody", "I fucking hate feminists and they should al die and burn in hell" en "Hitler was right I hate the jews" trok Microsoft de stekker uit de digitale nazi. Zestien uur spreken met de mensheid was voor Tay blijkbaar te veel van het goede. PS Misschien horen niet al zijn citaten thuis in de klas.

VorigeDit is wat de blockchaintechnologie voor het onderwijs kan betekenen
VolgendeCoronaregels voortgezet onderwijs
Reacties (0)

Er zijn bij dit artikel nog geen reacties geplaatst

Laat een reactie achter