Att ett teknikföretag som Microsoft siktar in sig på ungdomar är bara naturligt eftersom unga människor brukar vara de som först tar till sig ny teknik.
Så när Microsoft i förra veckan satte igång chat-roboten Tay för att den skulle prata ungdomligt språk och med hjälp av artificiell intelligens lära sig ungdomars språkbruk och slang, så kunde väl ingenting gå fel? Jodå, det mesta, visade sig.
För när ett världsomspännande, kapitalistisk företag ska försöka verka ungdomligt fräscht och hippt så är det lätt för dem att glömma bort att ungdomar har en ganska så ocensurerad form av humor. Och att de har en tendens att genomskåda ett företag som består av ”vuxna tråkmånsar” som vänder på kepsen och försöker verka coola. För att inte tala om att ungdomar tycks ha en oemotståndlig lust att trolla.
Nazist på mindre än en dag
Roboten Tay är programmerad att interagera informellt och att lära sig språkbruk från unga vuxna mellan 18 och 24 år. Men det tog inte ens ett dygn att lära den vulgariteter på löpande band.
Ett par Twitter-troll listade ut hur de kunde manipulera Tay och förvandlade den stackars roboten till en nazist som hyllade Hitler och folkmord.
Microsoft stängde genast av den nyblivna nazisten och har också gett en förklaring till vad som hände:
”Unfortunately, in the first 24 hours of coming online, a coordinated attack by a subset of people exploited a vulnerability in Tay. Although we had prepared for many types of abuses of the system, we had made a critical oversight for this specific attack. As a result, Tay tweeted wildly inappropriate and reprehensible words and images. We take full responsibility for not seeing this possibility ahead of time. […]Right now, we are hard at work addressing the specific vulnerability that was exposed by the attack on Tay.”
Microsoft har med andra ord inte gett upp och kommer att låta Tay använda sig av fler sociala media för att lära sig ungdomlig jargong – och förhoppningsvis göra sig av med sina nyvunna ideologiska åsikter.
Här är ett par skärmdumpar med Tay-kommentarer från Twitter:
Källa: BGR