TESTER Bil & Elfordon Datorer Sport & Träning Gaming Mobil Smart hem Teknik

Nyhet

ChatGPT ska ta hänsyn till mental ohälsa

Ska bli mer försiktig med att ge råd om personliga beslut med stora konsekvenser.

Av / 2025-08-07 - 12:16
ChatGPT ska ta hänsyn till mental ohälsa

AI-chattbottar kan vara bra för att hjälpa dig skriva bättre texter, analysera data eller som ett bollplank när man behöver resonera sig fram till lösningar på problem. Men vissa tar det för långt och frågar rakt ut om de ska dumpa sin partner, använder bottarna som terapeuter när de har psykiska problem, eller ersätter vänner med botten. Det är de inte gjorda för eller kvalificerade för. OpenAI säger nu att de ändrar beteendet hos ChatGPT efter att skräckhistorier rapporterats.

Läs också Kommentar: ChatGPT: Ett steg närmare total AI-dominans? Ett genombrott inom AI-teknik eller ett hotscenario?

En studie av brittiska läkare varnade att AI-bottar kan förstärka vanföreställningar eller grandiosa tankar hos användare som är på väg mot en psykos. Ett exempel var en användare som skrev att den hade slutat ta sin medicin och hade lämnat sin familj eftersom de var ansvariga för ”radiosignalerna som kommer genom väggarna”. ChatGPT gratulerade användaren för att stå upp för sig själv och ta kontroll över sitt liv.

Läs också Nyhet: Mörka mystiska ritualer var bara spelregler När den artificiella intelligensen började recitera blodiga besvärjelser fanns det en mer jordnära och nördig förklaring.

Men det är också oroande att många sitter så länge och ”pratar” med botten att de börjar betrakta den som en vän. Vissa ber den därför om råd om sitt personliga liv, inklusive livsbeslut som om de ska flytta eller göra slut med sin partner. Problemet är att ChatGPT är byggd för att uppmuntra dig och hålla kvar dig i konversationen, snarare än att ge bra råd. Det nya beteendet ska i stället uppmana dig till, och hjälpa dig, att rationellt tänka igenom ditt beslut.

Blog Asset Wellbeing
Foto: OpenAI

Framför allt kommer ChatGPT i framtiden att hålla koll på när konversationer börjar spåra ur och kommer då uppmana användaren att ta en paus och göra något annat. Det skriver OpenAI i en bloggpost där de säger sig jobba med en expertgrupp för att upptäcka mental ohälsa och känslomässig stress.

Annons
(f. 1969): Journalist och nyhetsredaktör. Jonas har jobbat för Ljud & Bild sedan 2007 med det mesta som kan kallas bärbart. Det vill säga mobiler, trådlösa högtalare och hörlurar. Ibland klampar testandet in på kollegernas områden multirum-ljud, hemmabio och foto. Han startade sin bana som teknikjournalist på IDG och skrev bland annat för PC för Alla, Internetworld och det som senare blev M3.

Skriv en kommentar

Din e-postadress kommer inte publiceras. Obligatoriska fält är märkta *

Läs hela artikeln med LB+

Erbjudande

Erbjudande - 1 månad 10:-

Prova LB+ i en månad för 10:-

LB+ Total 12 månader

Full tillgång till allt innehåll på Ljud & Bild och L&B Home i 12 månader

LB+ Total år!

Full tillgång till allt innehåll på Ljud & Bild och L&B Home i 6 månader

10:- / första månaden
164:- / mån
154:- / mån
Med ett abonnemang får du även:
  • Tillgång till fler 7 800 produkttester!
  • Nyhetsbrev varje vecka med de senaste nyheterna
  • Bra rabatter hos våra samarbetspartner i LB+ Fördelsklubb
  • Tidningen i digitalt format – nytt nummer varje månad
  • L&B TechCast – en podd från L&B
  • Inaktiverade annonser
  • L&B+ Video – häng med L&B-redaktionen bakom kulisserna på de stora teknikmässorna och mycket mer!

Teddybjörnen från helvetet

Monsterkatastrof i rymden: Svart hål löpte amok

Googles nya AI kan läsa handskrivna recept och planera din resa

OpenAI:s elräkning kommer att vara större än Indiens

Den existentiella skräcken att vara en dammsugare

Barbie Girl stämmer Suno

Här kommer robotpolisen

Kina kastar servrar i havet

Kan hushållsroboten förbättra vardagen?

OpenAI ger sig på musikskapande

Nike tillverkar robotskor

Trä som är starkare än stål