ChatGPT يتهم شخصًا بقتل ابنيه باستخدام بياناته الشخصية.

أثارت قضية رجل نرويجي يدعى Arve Hjalmar Holmen جدلاً واسعًا بعد أن زعمت ChatGPT، التابعة لـ OpenAI، زوراً أنه قتل ولديه وحُكم عليه بالسجن لمدة 21 عامًا. وتقدم Holmen بشكوى رسمية إلى سلطة حماية البيانات النرويجية، مطالبًا بفرض غرامة على الشركة بسبب نشر معلومات مغلوطة. هذه الحادثة تبرز إحدى مشاكل الذكاء الاصطناعي المعروفة بـ “الهلوسة”، حيث تبتكر النماذج تفاصيل خاطئة وتقدمها كحقائق، مما يثير مخاوف كبيرة حول مصداقيتها.

تفاصيل الحادثة

اكتشف Holmen الخطأ عندما سأل ChatGPT عن هويته، فأجاب بأنه كان والد صبيين صغيرين توفيا بشكل مأساوي في ديسمبر 2020. على الرغم من أن الروبوت حدد الفجوة العمرية بين الأطفال بشكل صحيح، إلا أن Holmen أكد أن هذه الادعاءات خاطئة تمامًا. وأعرب عن قلقه من أن الناس قد يصدقون هذه المعلومات بسبب انتشارها عبر منصات الذكاء الاصطناعي.

رد فعل الشركة المطورة

أقرت OpenAI بوقوع الخطأ، مشيرة إلى أنه نتج عن إصدار قديم من ChatGPT. وأوضحت الشركة أنها قامت بتحسينات لتقليل الأخطاء وتعزيز دقة النموذج. كما أضافت أن الإصدارات الجديدة مدعومة بإمكانيات البحث عبر الإنترنت لضمان تقديم معلومات أكثر موثوقية. ومع ذلك، لا تزال الشكوى قيد المراجعة.

تداعيات القضية

تدعم منظمة حقوقية رقمية تُعرف بـ NOYB شكوى Holmen، معتبرة أن استجابة ChatGPT تشهيرية وتنتهك قوانين حماية البيانات الأوروبية. هذه الحادثة ليست الأولى من نوعها، حيث سبق أن تسببت نماذج الذكاء الاصطناعي في نشر معلومات خاطئة، مما أدى إلى إثارة مخاوف حول مصداقيتها ومدى تأثيرها على الرأي العام.

المخاطر المحتملة

تتزايد المخاوف حول قدرة الذكاء الاصطناعي على توليد معلومات مضللة، خاصة مع تطور هذه التقنيات واستخدامها على نطاق واسع. ومن الأمثلة الأخرى على هذه المشكلة:

  • تصنيع عناوين إخبارية كاذبة بواسطة أدوات الذكاء الاصطناعي التابعة لشركة آبل.
  • نصائح غريبة قدمها نموذج GEMINI من جوجل، مثل استخدام الغراء لتثبيت الجبن على البيتزا.

في الختام، تُظهر هذه الحادثة أهمية تحسين دقة الذكاء الاصطناعي لضمان عدم نشر معلومات خاطئة قد تؤثر سلبًا على حياة الأفراد وسمعتهم.

close