الهلوسات الذكية 

طلبت مجلة شركة فاست  Fast Company Magazine (مجلة أمريكية متخصصة بالتكنولوجيا والأعمال والتصميم)، من GhatGPT، تحرير مقال إخباري عن الربع المالي الأخير لشركة «تسلا»، فردَّ بمقالٍ جيد وذكر أرقام وبيانات مالية، ولكنها غير صحيحة.

يذكر أيضا أن أحد المحامين استعان بالذكاء الاصطناعي، في عمل مرافعة لأحد القضايا وأعجبه جداً النتيجة والاستشهادات الموجودة بالمرافعة من قضايا سابقة وبتفاصيل دقيقة، ولكن سرعان ما اكتشف أن هذه القضايا غير موجودة أصلا.

وعندما سئل أحد محركات البحث بالذكاء الاصطناعي، عن مؤلف رواية نسبها إلى كاتبة لم تنشر أي رواية في تاريخها، وأعطاها جنسية بلد آخر.

الهلوسة في الذكاء الاصطناعي ‏(AI Hallucination) تشير إلى توليد مخرجات، قد تبدو معقولة، لكنها إما غير صحيحة من الناحية الواقعية أو لا علاقة لها بالسياق المحدد.

أي باختصار، الهلوسة هي ردود واثقة لكنها مضللة أو مختلقة أو غير موثوقة تنتجها خوارزميات الذكاء الاصطناعي .

ومن أهم أسباب هذه الظاهرة:

•     اختلافات في محتوى المصدر (تناقضات أو معلومات غير دقيقة)

•     انحياز البيانات: تميل نحو وجهة نظر معينة.

•     قلة البيانات:  لا تحتوي على أمثلة كافية تمثل العالم الحقيقي

•     فك التشفير الخاطئ (خوارزميات): إساءة فهم المعلومات أو ترجمتها بشكل خاطئ.

•     الاعتماد على المخرجات السابقة: مما يؤدي إلى تكرار الأخطاء أو إنشاء معلومات مضللة.

•     الهجمات السبرانية: التلاعب بالنماذج أو اختراقها من قبل جهات التهكير وإنشاء معلومات مضللة.

وأخيرا وليس آخراً من المهم مراعاة محدودية وسائل وتطبيقات الذكاء الاصطناعي، وعدم الاعتماد عليها بشكل كامل كمصدر وحيد للمعلومات وخصوصاً الاستشهادات.

فرحان حسن الشمري

للتواصل مع الكاتب:

‏e-mail: fhshasn@gmail.com

‏Twitter: @farhan_939

قد يعجبك أيضاً

No stories found.
logo
صحيفة عاجل
ajel.sa