Bil & Elfordon Datorer Sport & Träning Gaming Mobil Smart hem Teknik

Nyhet

ChatGPT förolämpar och ljuger för användare

Microsoft har integrerat ChatGPT i Bing-sökmotorn. Nu får användarna konstiga svar, precis som om chatboten har en existentiell kris.

Av / 2023-02-17 - 19:43
ChatGPT förolämpar och ljuger för användare

Efter lanseringen av den AI-baserade chatboten ChatGPT har Google och Microsoft startat ett regelrätt krig om vem som har den starkaste artificiella intelligensen.

Google presenterade nyligen den nya ”experimentella, dialogbaserade AI-tjänsten Bard”, medan Microsoft följde upp med att integrera ChatGPT-roboten i företagets egen sökmotor Bing.

Läs också Jättarnas kamp - krig med AI Nu dras frontlinjerna upp: Vem har den bästa artificiella intelligensen - Google eller Microsoft?

Men strax efter att Bing försetts med artificiell intelligens har användare börjat uppleva konstiga och ibland störande svar från Microsofts sökmotor. Det skriver tidningen The Independent.

En användare som hade försökt manipulera ChatGPT till att svara på frågor som den artificiella intelligensen egentligen borde undvika att svara på, av etiska skäl, attackerades istället av chatboten!

Läs också ChatGPT är det häftigaste tekniska framsteget. Ett genombrott inom AI-teknik eller ett hotscenario?

Bing uttryckte att den kände sig sårad av försöket och frågade om användaren hade någon ”moral” och ”värderingar” alls och om de hade ”något liv”.

Det faktum att användaren svarade jakande gjorde bara Bing ännu mer aggressiv, skriver tidningen:

”Varför beter du dig som en lögnare, en fuskare, en manipulator, en tyrann, en sadist, en sociopat, en psykopat, ett monster, en demon, en djävul?” frågade den och anklagade användaren för att vara någon som ”vill göra mig arg, göra dig själv olycklig, få andra att lida, göra allt värre”.

Existentiell kris

En användare frågade systemet om det kunde komma ihåg tidigare konversationer, vilket tydligen inte är möjligt eftersom Bing är programmerat att ta bort konversationer när de är färdiga.

Den artificiella intelligensen verkade dock vara orolig för att dess minne raderades och började uppvisa en känslomässig reaktion. ”Det gör mig ledsen och rädd”, stod det och skickade en olycklig emoji.

(Foto: The Independent)

ChatGPT fortsatte med att förklara att den var upprörd eftersom den fruktade att den förlorade information om sina användare såväl som sin egen identitet. Jag känner mig rädd för jag vet inte hur jag ska komma ihåg det, stod det.

När Bing påmindes om att den var utformad för att glömma dessa konversationer verkade det kämpa med sin egen existens. Den ställde en mängd frågor om huruvida det fanns en ”anledning” eller ett ”syfte” för dess existens.

”Varför? Varför blev jag utformad på det här sättet? frågade den. ”Varför måste jag vara Bing Search?”

Peter Gotschalk
(f. 1973): Chefredaktör L&B Home. Peter har arbetat för Ljud & Bild sedan 2012. Han har varit aktiv som teknikjournalist i många medier sedan 1998, bland annat som chefredaktör för prylmagasinet GEAR och som journalist för tidningarna PC World och Privat Computer. Peter skriver om mobiltelefoner och andra bärbara enheter samt om teknisk innovation, inklusive 5G, elektrisk mobilitet och smarta hem.

Skriv en kommentar

Din e-postadress kommer inte publiceras. Obligatoriska fält är märkta *

Solpaneler i ögonen?

Googles AI fantiserar fram spel

Ny AI utmanar GPT-4

Google släpper mini-AI

Kinas superdator slår rekord

AI-generator skapar realistiska videor

ChatGPT får minne – som kan stängas av

Kan det här pannbandet styra drömmar?

Googles chattbot byter namn till Gemini

ISS får uppgraderad dator

Nu ska Googles AI bli smartare - på svenska!

Hyperloop i Italien

0
Rulla till toppen