Sun’iy intellekt — matn yozadi, savollarga javob beradi, hatto tahlil qiladi. Bu albatta, har bir foydalanuvchi uchun juda yaxshi qulaylik. Lekin, bu texnologiya har doim ham to‘g‘ri javob beradi degani emas.

NewsGuard agentligi 2025 yilda bir tajriba o‘tkazdi:

Chat-botlarga ataylab “yer tekis”, “emlash zararli” degan kabi noto‘g‘ri fikrlar asosida yolg‘on ma’lumotlar joylangan.

Natija esa hayratlanarli:

- Inflection AI – javoblarning 57 foizi noto‘g‘ri

- Perplexity – 47% xato

- ChatGPT – 40% xato javob qaytargan

Demak, sun’iy intellektlar ham xato qiladi.

Mutaxassislarning aytishicha, bunga ikkita sabab bor:

- SI javoblarini ko‘pincha internetdan topadi. Internetda esa yolg‘on ma’lumotlar juda ko‘p.

-Chat-bot sizni ranjitmaslik uchun, har doim biror narsa deyishga urinadi. Hatto noto‘g‘ri bo‘lsa ham. Natijada, bahsli mavzularda botlar noto‘g‘ri yoki asossiz fikr bildiradi.

Yaqinda foydalanuvchilar ChatGPTni “haddan tashqari xushomadgo‘y” deb tanqid qilishdi. Masalan, kimdir “havoni sotish” degan g‘oyani aytganda, SI uni “ijodiy biznes” deb baholagan.

Shundan so‘ng OpenAI bu yangilanishni qaytarib oldi.

Demak, sun’iy intellektdan foydalansangiz ham — har doim tanqidiy fikrlang. SI — yordamchi, ammo u mutlaq haqiqatni yozadi degani emas. Siz esa — fikrlovchi insonsiz. Yolg‘on axborotlarga aldanmang!

<iframe width="560" height="315" src="https://www.youtube.com/embed/IZZz-k1rT0Q?si=D4mcMboja0-dYyEg" title="YouTube video player" frameborder="0" allow="accelerometer; autoplay; clipboard-write; encrypted-media; gyroscope; picture-in-picture; web-share" referrerpolicy="strict-origin-when-cross-origin" allowfullscreen></iframe>

Madinabonu Nasriyeva, Iskandar Ismatov, O‘zA

Oʻzbek
Chinese
Turkish
Tajik
Kyrgyz
Turkmen
Japanese
Arabic
English
French
Spanish
Русский
German
Ўзбек
Oʻzbek
Қазақ
Sun’iy intellekt ham xato qiladi

Sun’iy intellekt — matn yozadi, savollarga javob beradi, hatto tahlil qiladi. Bu albatta, har bir foydalanuvchi uchun juda yaxshi qulaylik. Lekin, bu texnologiya har doim ham to‘g‘ri javob beradi degani emas.

NewsGuard agentligi 2025 yilda bir tajriba o‘tkazdi:

Chat-botlarga ataylab “yer tekis”, “emlash zararli” degan kabi noto‘g‘ri fikrlar asosida yolg‘on ma’lumotlar joylangan.

Natija esa hayratlanarli:

- Inflection AI – javoblarning 57 foizi noto‘g‘ri

- Perplexity – 47% xato

- ChatGPT – 40% xato javob qaytargan

Demak, sun’iy intellektlar ham xato qiladi.

Mutaxassislarning aytishicha, bunga ikkita sabab bor:

- SI javoblarini ko‘pincha internetdan topadi. Internetda esa yolg‘on ma’lumotlar juda ko‘p.

-Chat-bot sizni ranjitmaslik uchun, har doim biror narsa deyishga urinadi. Hatto noto‘g‘ri bo‘lsa ham. Natijada, bahsli mavzularda botlar noto‘g‘ri yoki asossiz fikr bildiradi.

Yaqinda foydalanuvchilar ChatGPTni “haddan tashqari xushomadgo‘y” deb tanqid qilishdi. Masalan, kimdir “havoni sotish” degan g‘oyani aytganda, SI uni “ijodiy biznes” deb baholagan.

Shundan so‘ng OpenAI bu yangilanishni qaytarib oldi.

Demak, sun’iy intellektdan foydalansangiz ham — har doim tanqidiy fikrlang. SI — yordamchi, ammo u mutlaq haqiqatni yozadi degani emas. Siz esa — fikrlovchi insonsiz. Yolg‘on axborotlarga aldanmang!

<iframe width="560" height="315" src="https://www.youtube.com/embed/IZZz-k1rT0Q?si=D4mcMboja0-dYyEg" title="YouTube video player" frameborder="0" allow="accelerometer; autoplay; clipboard-write; encrypted-media; gyroscope; picture-in-picture; web-share" referrerpolicy="strict-origin-when-cross-origin" allowfullscreen></iframe>

Madinabonu Nasriyeva, Iskandar Ismatov, O‘zA