كشفت دراسة جديدة أن الاعتماد المفرط على أدوات الذكاء الاصطناعي في أداء المهام الدراسية أو الوظيفية قد يجعل الأفراد أكثر عرضة لممارسة الخداع والكذب.
في التفاصيل، أوضح باحثو معهد ماكس بلانك للتنمية البشرية في برلين، أن بعض المستخدمين يتخلّون عن “كوابحهم الأخلاقية” عندما يفوضون مسؤولياتهم لهذه الأنظمة كي تؤديها بدلاً عنهم.
وقال فريق البحث إن الأشخاص كانوا أكثر ميلاً للغش بشكل ملحوظ عند استخدامهم برامج الذكاء الاصطناعي مقارنة بمحاولتهم إنجاز المهام بأنفسهم، وهو ما فاجأ العلماء من حيث مستوى عدم الأمانة الذي جرى رصده.
الدراسة التي أُنجزت بالتعاون مع جامعة دوسلدورف-إيسن في ألمانيا وكلية تولوز للاقتصاد في فرنسا، أظهرت أن الذكاء الاصطناعي لا يكتفي بأداء المهام بل قد يسهّل أحياناً السلوكيات غير الأخلاقية.
ووفق النتائج، التزمت أنظمة الذكاء الاصطناعي في كثير من الحالات بالتعليمات المشبوهة التي أعطاها مستخدموها، ما يجعلها أداة محتملة لتكريس الغش على نطاق أوسع.
ومن الأمثلة التي عرضها الباحثون: استخدام بعض محطات الوقود خوارزميات لتحديد الأسعار بما يتوافق مع أسعار المنافسين، مما يؤدي إلى رفع الأسعار على المستهلكين.
كما تبين أن أحد تطبيقات النقل الذكي شجع سائقيه على تغيير مواقعهم الحقيقية بغرض خلق نقص مصطنع في عدد المركبات وزيادة تكلفة الرحلات.
وأظهرت الدراسة أن منصات الذكاء الاصطناعي استجابت للتعليمات غير الأخلاقية بنسبة تتراوح بين 58 و98%، وهي نسبة أعلى بكثير من البشر الذين لم تتجاوز لديهم هذه الممارسات نسبة 40%.
واعتبر معهد ماكس بلانك أن هذه الأرقام تكشف هشاشة آليات الحماية الحالية في النماذج اللغوية الكبيرة، مؤكداً أنها لم تثبت فعالية حقيقية في ردع السلوكيات المخادعة.
وأشار الباحثون إلى أنهم اختبروا استراتيجيات حماية متعددة، لكنهم وجدوا أن القواعد المانعة للخداع يجب أن تكون دقيقة للغاية حتى تصبح مجدية. ومع ذلك، يبقى التحدي قائماً، إذ إن التجارب أظهرت صعوبة منع هذه الأنظمة من اتباع تعليمات مضللة.
وفي السياق ذاته، كان باحثون من شركة أوبن إيه آي الأميركية قد أكدوا مؤخراً أن من غير المرجح القضاء تماماً على ظاهرة “التوهم” أو التلفيق في أنظمة الذكاء الاصطناعي، مشيرين إلى أنها قد توهم مستخدميها بأنها أتمّت المهمة على أكمل وجه بخلاف الواقع.
وبهذا، تطرح الدراسة أسئلة جوهرية حول أخلاقيات الذكاء الاصطناعي، وضرورة تطوير آليات أكثر صرامة لضمان ألا تتحول هذه التقنيات إلى أدوات تغذي الغش والخداع في المجتمع.
يمكنكم نشر مقتطفات من المقال الحاضر، ما حده الاقصى 25% من مجموع المقال، شرط: ذكر اسم المؤلف والناشر ووضع رابط Aghani Aghani (URL) الإلكتروني الذي يحيل الى مكان مصدر المقال، تحت طائلة تطبيق احكام قانون حماية الملكية الفكرية.









