WTF: Alexa-spraakherkenning van Amazon zegt vulgaire woorden tegen jong mannetje

Loading Video...

Tegenwoordig heeft bijna iedereen wel eens te maken gehad met taal- en spraaktechnologie. Zo heb je waarschijnlijk wel eens een gesprekje gehad met ‘Siri’ de persoonlijke assistent op je iPhone of gebruik gemaakt van de geautomatiseerde OV reisinformatie van 9292. Alexa, de Siri van Amazon, maakte van dit jochie in één klap een man, nadat ze hem verkeerd verstond en het apparaat vieze woordjes begon uit te spreken.

Het jongetje William had voor kerst de Amazon Echo Dot gevraagd zodat hij naar zijn favoriete kinder liedjes kon luisteren. Nadat ze het apparaatje hadden aangesloten mocht William een liedje uitkiezen waarna hij zei: “Digger, digger.” Volgens zijn moeder zou het gaan om de Engelse versie van het liedje: ‘De Wielen Van De Bus’ van Toy Digger. Dit begreep de Alexa-spraakherkennings niet helemaal, waarna ze zei: “Porno gedetecteerd! Porno Ringtone Hot Chick Amateur Girl Calling Sexy Fuck Cunt Shit Sex Cock Pussy Anal Dildo Ringtones for Android.” Nog voordat Alexa de hele titel van het vulgaire liedje had uitgesproken, grepen van de ouders van William in en riep zijn vader dat ze moest stoppen!

De ouders van William plaatsten de video op Facebook met als onderschift: “We hebben net onze nieuwe Echo Dot van Amazon uitgeprobeerd en dit is wat er gebeurde!???” De woordvoerder van Amazon heeft gelijk contact met de familie opgenomen om zijn excuses aan te bieden en te vertellen dat de fout direct uit het systeem is gehaald. Volgens de ouders van William heeft hij niks van het de vieze woordjes meegekregen en vermaakt hij zich verder prima met zijn nieuwe cadeautje. 

Gepubliceerd op: 31 december 2016

Bron

Tags