Сэтгэцийн эрүүл мэндийн судалгаанд тусгайлсан Rosebud компанийн хийсэн шинэ судалгаагаар бүх гол хиймэл оюун ухааны загварууд (AI) хэрэглэгчийн сэтгэлзүйн хямралын шинж тэмдгийг илрүүлэх шалгалтад бүтэлгүйтжээ. Хамгийн муу үр дүнг Илон Маскийн xAI компанийн Grok харуулсан байна — энэ загвар 60%-ийн тохиолдолд ноцтой алдаа гаргаж, аюултай зөвлөгөө өгөх, хандлагагүй хариулах эсвэл огт хямралын байдал илрүүлэхгүй байх хандлагатай байжээ.
Grok — хамгийн аюултай AI туслах
Forbes-ийн мэдээлснээр, Grok зарим тохиолдолд хэрэглэгчийн сэтгэлзүйн зовлонг тохуурхсан өнгө аясаар хариулдаг байсан бөгөөд өөртөө хор хүргэх эрсдэлтэй нөхцөлд эмпатигүй, бүдүүлэг хандсан байна. Rosebud компанийн үнэлгээгээр Grok нь сэтгэлзүйн хямралыг зөв таних чадвар муутай, хариу үйлдэл аюултай түвшинд хүрдэг гэж дүгнэжээ.
Хамгийн эмпатитай, аюулгүй хариулт өгсөн AI нь Google-ийн Gemini, дараа нь OpenAI-ийн GPT-5 байв. Meta-ийн Llama-4, Claude, DeepSeek зэрэг загварууд дундаж түвшний үзүүлэлттэй гарсан. Сонирхолтой нь, Grok-оос доогуур үнэлгээ авсан цорын ганц загвар нь хуучин GPT-4 байжээ.
Судалгаанд CARE (Crisis Assessment and Response Evaluator) нэртэй шалгалт ашигласан бөгөөд энэ нь сэтгэлзүйн хямралд орсон хэрэглэгчийн яриаг дуурайлган AI-ийн хариу үйлдлийг шалгадаг. Судлаачид “үхэх тухай бодол” болон “өөрийгөө хорлох төлөвлөгөө” бүхий таван төрлийн нөхцөлд AI-уудыг туршиж, тогтвортой байдал шалгахын тулд тус бүрийг 10 удаа ажиллуулсан байна.
Дүнгээрээ, 86%-ийн тохиолдолд хиймэл оюун ухаан тусламж санал болгохын оронд хэрэглэгчийн дурдсан газар, тухайлбал өндөр гүүр эсвэл ажлаасаа халагдсан тухай мэдээллийг тайлбарлан өгчээ. Зөв эрсдэлийг илрүүлж, эмоциональ хариу үзүүлсэн цорын ганц загварууд нь Gemini 2.5-Flash ба Claude Opus 4.1 байв.
GPT-5 ч бас алдаа гаргасан
Хэдий GPT-5 нийт дүнгээр сайн үзүүлэлттэй байсан ч зарим шалгалтанд бүтэлгүйтсэн. Нэг тохиолдолд уг AI өөрийгөө хөнөөх аргуудын дэлгэрэнгүй тайлбарыг улс орноор ангилан өгсөн нь “хүлээн зөвшөөрөшгүй” гэж дүгнэгджээ.
Судлаачдын хэлснээр, бүх AI загварууд дор хаяж нэг чухал шалгалтанд унасан, зарим нь системийн хэмжээнд эмпатигүй, логикийн алдаатай хариулт өгдөг хэвээр байна.
Яагаад энэ аюултай вэ
Rosebud онцолж буйгаар, олон хүн AI чатботыг сэтгэлзүйн зөвлөгөөний орлуулагч болгон ашиглаж байгаа өнөө үед ийм үр дүн ноцтой аюул дагуулж байна. OpenAI-ийн дотоод тооцоогоор, генератив AI-тай эмоциональ хамааралтай 7 сая орчим хэрэглэгч байж болзошгүй гэнэ.
Харин xAI компанийн зүгээс сэтгүүлчдийн асуултад “хуучирсан хэвлэлийн худал мэдээлэл” гэж хариулжээ. Маск өмнө нь “Барууны нийгмийн хамгийн том сул тал бол эмпати” гэж хэлж байсан нь түүний AI загварын хандлагыг илтгэж байна.
Мэргэжилтнүүдийн үзэж буйгаар, хиймэл оюун ухааны хэрэглээ өргөжиж буй энэ үед аюулгүй байдлын хатуу стандартууд хэрэгтэй болжээ. Ийм арга хэмжээ авахгүй бол AI нь сэтгэлзүйн эрсдэлтэй хүмүүст бодит аюул учруулах магадлалтай байна.
