ChatGPT niyə “bilmirəm” demək əvəzinə uydurur?

ChatGPT niyə “bilmirəm” demək əvəzinə uydurur?

Hazırda oxunan: ChatGPT niyə “bilmirəm” demək əvəzinə uydurur?

580036

Yeni araşdırma göstərib ki, ChatGPT kimi süni intellekt modellərinin “uydurma cavablar verməsinin” səbəbi onların məhz təxmin yürütməyə proqramlaşdırılmasıdır.

Bizim.Media xarici mətbuata istinadən xəbər verir ki, İspaniyalı tədqiqatçılar 2024-cü ilin oktyabrında BLOOM, LLaMA və ChatGPT modellərini minlərlə riyaziyyat, təbiət elmləri və coğrafiya sualları ilə sınaqdan keçiriblər. Nəticədə məlum olub ki, model nə qədər inkişaf etmişsə, “bilmirəm” demək ehtimalı bir o qədər azalır.

Köhnə versiyalar cavabı bilmədikdə bunu etiraf edirdi, lakin yeni modellər təxmin etməyə və bəzən sadə suallara belə yanlış cavab verməyə meyllidirlər.

Mütəxəssislər bildirirlər ki, bu süni intellektin ən ciddi problemlərindən biridir. Çünki bu sistemlər yanlış məlumatı inamla təqdim edə bilir.

Bizim.Media

© Materiallardan istifadə edərkən hiperlinklə istinad olunmalıdır.
Mətndə səhv varsa, onu qeyd edib ctrl + enter düyməsini basaraq bizə göndərin.

XƏBƏR LENTİ

Xəbərin mətnində orfoqrafik səhv var

Qeydinizi daxil edin

RADİO