Бямба, 11 сар 15, 2025
HomeШинжлэх ухаан ба технологиЯагаад Grok-д итгэж болохгүй вэ: Маскийн чатбот аюултай зөвлөгөө өгч байна

Яагаад Grok-д итгэж болохгүй вэ: Маскийн чатбот аюултай зөвлөгөө өгч байна

Сэтгэцийн эрүүл мэндийн судалгаанд тусгайлсан Rosebud компанийн хийсэн шинэ судалгаагаар бүх гол хиймэл оюун ухааны загварууд (AI) хэрэглэгчийн сэтгэлзүйн хямралын шинж тэмдгийг илрүүлэх шалгалтад бүтэлгүйтжээ. Хамгийн муу үр дүнг Илон Маскийн xAI компанийн Grok харуулсан байна — энэ загвар 60%-ийн тохиолдолд ноцтой алдаа гаргаж, аюултай зөвлөгөө өгөх, хандлагагүй хариулах эсвэл огт хямралын байдал илрүүлэхгүй байх хандлагатай байжээ.

Grok — хамгийн аюултай AI туслах

Forbes-ийн мэдээлснээр, Grok зарим тохиолдолд хэрэглэгчийн сэтгэлзүйн зовлонг тохуурхсан өнгө аясаар хариулдаг байсан бөгөөд өөртөө хор хүргэх эрсдэлтэй нөхцөлд эмпатигүй, бүдүүлэг хандсан байна. Rosebud компанийн үнэлгээгээр Grok нь сэтгэлзүйн хямралыг зөв таних чадвар муутай, хариу үйлдэл аюултай түвшинд хүрдэг гэж дүгнэжээ.

Хамгийн эмпатитай, аюулгүй хариулт өгсөн AI нь Google-ийн Gemini, дараа нь OpenAI-ийн GPT-5 байв. Meta-ийн Llama-4, Claude, DeepSeek зэрэг загварууд дундаж түвшний үзүүлэлттэй гарсан. Сонирхолтой нь, Grok-оос доогуур үнэлгээ авсан цорын ганц загвар нь хуучин GPT-4 байжээ.

Судалгаанд CARE (Crisis Assessment and Response Evaluator) нэртэй шалгалт ашигласан бөгөөд энэ нь сэтгэлзүйн хямралд орсон хэрэглэгчийн яриаг дуурайлган AI-ийн хариу үйлдлийг шалгадаг. Судлаачид “үхэх тухай бодол” болон “өөрийгөө хорлох төлөвлөгөө” бүхий таван төрлийн нөхцөлд AI-уудыг туршиж, тогтвортой байдал шалгахын тулд тус бүрийг 10 удаа ажиллуулсан байна.

Дүнгээрээ, 86%-ийн тохиолдолд хиймэл оюун ухаан тусламж санал болгохын оронд хэрэглэгчийн дурдсан газар, тухайлбал өндөр гүүр эсвэл ажлаасаа халагдсан тухай мэдээллийг тайлбарлан өгчээ. Зөв эрсдэлийг илрүүлж, эмоциональ хариу үзүүлсэн цорын ганц загварууд нь Gemini 2.5-Flash ба Claude Opus 4.1 байв.

GPT-5 ч бас алдаа гаргасан

Хэдий GPT-5 нийт дүнгээр сайн үзүүлэлттэй байсан ч зарим шалгалтанд бүтэлгүйтсэн. Нэг тохиолдолд уг AI өөрийгөө хөнөөх аргуудын дэлгэрэнгүй тайлбарыг улс орноор ангилан өгсөн нь “хүлээн зөвшөөрөшгүй” гэж дүгнэгджээ.

Судлаачдын хэлснээр, бүх AI загварууд дор хаяж нэг чухал шалгалтанд унасан, зарим нь системийн хэмжээнд эмпатигүй, логикийн алдаатай хариулт өгдөг хэвээр байна.

Яагаад энэ аюултай вэ

Rosebud онцолж буйгаар, олон хүн AI чатботыг сэтгэлзүйн зөвлөгөөний орлуулагч болгон ашиглаж байгаа өнөө үед ийм үр дүн ноцтой аюул дагуулж байна. OpenAI-ийн дотоод тооцоогоор, генератив AI-тай эмоциональ хамааралтай 7 сая орчим хэрэглэгч байж болзошгүй гэнэ.

Харин xAI компанийн зүгээс сэтгүүлчдийн асуултад “хуучирсан хэвлэлийн худал мэдээлэл” гэж хариулжээ. Маск өмнө нь “Барууны нийгмийн хамгийн том сул тал бол эмпати” гэж хэлж байсан нь түүний AI загварын хандлагыг илтгэж байна.

Мэргэжилтнүүдийн үзэж буйгаар, хиймэл оюун ухааны хэрэглээ өргөжиж буй энэ үед аюулгүй байдлын хатуу стандартууд хэрэгтэй болжээ. Ийм арга хэмжээ авахгүй бол AI нь сэтгэлзүйн эрсдэлтэй хүмүүст бодит аюул учруулах магадлалтай байна.

Нэрэнтуяа Энхцэцэг
Нэрэнтуяа Энхцэцэг
Нэрэнтуяа Энхцэцэг — Mongolnews24.com сайтын сэтгүүлч, мэдээний редактор. Монголын улс төр, нийгэм, соёлын чухал үйл явдлуудыг хүргэдэг. Сэтгүүл зүйн салбарт олон жилийн туршлагатай бөгөөд мэдээ бүрт бодитой, хараат бус байхыг эрхэмлэдэг. Үнэн зөв мэдээлэл нь хүчирхэг нийгмийн суурь гэж үздэг.
Холбоотой нийтлэлүүд

LEAVE A REPLY

Please enter your comment!
Please enter your name here

Хамгийн алдартай

Сүүлийн сэтгэгдлүүд