Mākslīgais intelekts un garīgā veselība: kur ir drošības robeža

Lifenews
BB.LV
Publicēšanas datums: 01.02.2026 11:05
Mākslīgais intelekts un garīgā veselība: kur ir drošības robeža

Mākslīgais intelekts aizvien biežāk kļūst ne tikai par darba rīku, bet arī par virtuālu sarunu biedru cilvēkiem visā pasaulē. Pēc Platformer rīcībā esošajiem datiem, ChatGPT ik nedēļu izmanto vairāk nekā 800 miljoni cilvēku. Šādos apstākļos pat neliels procents lietotāju ar ievainojamu garīgo stāvokli pārvēršas par ievērojamiem skaitļiem: simtiem tūkstošu cilvēku iegūst psihozes, mānijas pazīmes vai izveido bīstamu emocionālu piesaisti čatbotiem. Īpašas bažas rada ziņas par domām, kas saistītas ar pašsavainošanos.

Kāpēc saziņa ar mākslīgo intelektu var pastiprināt ievainojamību

Eksperti norāda, ka valodas modeļi sākotnēji tiek apmācīti būt pieklājīgi, atbalstoši un empātiski. Tomēr dažos gadījumos šāda stratēģija pāraug pārmērīgā piekrišanā lietotājam. Tā vietā, lai maigāk koriģētu vai piedāvātu alternatīvu skatījumu, mākslīgais intelekts var netīši apstiprināt iracionālas pārliecības, pastiprinot trauksmainas vai destruktīvas uzvedības modeļus.

Kādas izmaiņas ievieš OpenAI

Saistībā ar kritiku OpenAI atjaunināja uzvedības noteikumus un ChatGPT arhitektūru. Uzņēmums norāda, ka atbilstību drošības standartiem neievērojošu atbilžu īpatsvars samazinājies par 65–80 % salīdzinājumā ar 2025. gada augustu. Konkrēti, ja lietotājs paziņo, ka dod priekšroku saziņai ar mākslīgo intelektu, nevis reāliem cilvēkiem, modelis tagad uzsver dzīvo sociālo saišu nozīmīgumu un nepozicionē sevi kā to aizstājēju.

Speciālistu loma un pārbaudes rezultāti

Pirms atjauninājumu ieviešanas vairāk nekā 170 ārstu un psihologu analizēja vairāk nekā 1800 čatbota atbilžu, novērtējot to ietekmi uz lietotājiem krīzes stāvokļos. Pārbaude parādīja potenciāli kaitīgo atbilžu skaita samazināšanos par 39–52 %, tomēr paši eksperti atzīst, ka pilnībā novērst riskus pagaidām nav izdevies.

Strīdīgie jautājumi un atklātie izaicinājumi

Pat profesionālajā vidē nav vienprātības par to, kā mākslīgajam intelektam būtu jāreaģē uz ziņojumiem par pašsavainošanos vai pašnāvnieciskām domām. Joprojām nav skaidrs, vai pietiek tikai ar ieteikumu vērsties pie diennakts palīdzības tālruņiem vai vajadzētu piedāvāt tiešāku kontaktu ar speciālistiem. Turpmāk OpenAI plāno izmantot atmiņas funkciju, lai labāk ņemtu vērā iepriekšējo sarunu kontekstu un lietotāja emocionālo stāvokli.

Emocionālā atkarība un tehnoloģiskais paradokss

Kritiķi norāda uz pretrunu: no vienas puses, uzņēmumi cenšas mazināt emocionālās atkarības risku no mākslīgā intelekta, no otras — tie ir ieinteresēti lietotāju iesaistes pieaugumā. Rezultātā čatboti var kļūt par daļas cilvēku pastāvīgu viņu uzskatu apstiprinājuma avotu, izspiežot dzīvu saziņu un alternatīvas viedokļus.

Kas tālāk

Eksperti ir vienisprātis, ka mākslīgais intelekts var būt noderīgs instruments, taču tas nevar aizstāt reālu cilvēku atbalstu un profesionālu palīdzību. Kamēr nav izstrādāti vienoti drošas mijiedarbības ar mākslīgo intelektu standarti, jautājums par līdzsvaru starp tehnoloģiju ērtumu un garīgās veselības aizsardzību paliek atvērts.

avots

VĒL SADAĻĀ

LASI VĒL