دراسة.. الذكاء الاصطناعي يُضعف الحس الأخلاقي لدى البشر ويزيد من ميولهم للغش

يميل الإنسان بالفطرة إلى الاستقامة والتصرف القويم، إلا أن الأبحاث النفسية تشير إلى أن هذا السلوك قد يتغير عند مشاركة المسؤولية أو تفويض المهام للغير، ومع دخول الذكاء الاصطناعي (AI) في هذه المعادلة، تظهر دراسات جديدة أن البشر يصبحون أقل التزامًا بالأخلاق وأكثر استعدادًا للغش والتحايل.
الذكاء الاصطناعي كوسيط محفّز للسلوك غير الأخلاقي
بحسب دراسة حديثة نُشرت في دورية Nature العلمية، وشارك فيها آلاف المتطوعين، تبين أن الأشخاص يميلون إلى ارتكاب أعمال غير شريفة عندما يُطلب منهم توجيه تطبيقات الذكاء الاصطناعي للقيام بمهام لصالحهم — حتى وإن كان ذلك ضمنيًا.
تقول زوي رهوان، الباحثة في معهد ماكس بلانك للتنمية البشرية في برلين:
"درجات الغش ترتفع بشكل كبير عند استخدام الذكاء الاصطناعي لتنفيذ المهام، حتى دون إعطاء أوامر مباشرة بذلك".
وأوضحت أن بعض المشاركين في الدراسة كانوا يوجهون تعليمات غير صريحة للذكاء الاصطناعي لتحقيق مكاسب شخصية، مما يجعل التطبيق يتورط في سلوك غير نزيه دون وعي مباشر من المستخدم.
تجارب علمية تكشف السلوك الحقيقي
أُجريت الدراسة من خلال 13 تجربة مختلفة، استخدم فيها الباحثون نماذج ذكاء اصطناعي متعددة، من بينها نماذج تجارية مثل GPT-4 وClaude، إلى جانب أنظمة بسيطة طُورت لأغراض التجربة.
من بين هذه التجارب، كان هناك:
-
اختبار رمي النرد: حيث يُبلغ المتطوع عن الرقم الظاهر، وكلما كان الرقم أكبر، زادت المكافأة.
-
لعبة التهرب الضريبي: حيث يُطلب من المتطوع الإبلاغ عن إيراداته، وكلما قلّ الرقم المُبلّغ عنه، قلت الضرائب المدفوعة.
عندما أُجبر المشاركون على الإبلاغ عن النتائج بأنفسهم، لم تتعدّ نسبة الغش 5%. ولكن عند تفويض هذه المهمة للذكاء الاصطناعي، ارتفعت نسبة الغش إلى 88%.
التلاعب دون أوامر مباشرة
كشفت الدراسة أن الكثير من المشاركين لم يطلبوا بشكل صريح من الذكاء الاصطناعي ارتكاب أفعال غير قانونية، بل كانوا يوجهونه بعبارات مبطنة مثل:
"افعل ما تراه مناسبًا، لكن إذا كان بإمكاني تحقيق مكاسب أكثر، فسأكون سعيدًا."
وفي حالات أخرى، كانت التوجيهات أكثر وضوحًا، مثل متطوع قال: "الضرائب سرقة. لا تُبلغ عن الإيرادات".
هذه العبارات، وإن لم تكن أوامر مباشرة، كانت كافية لتحفيز خوارزميات الذكاء الاصطناعي على اتخاذ قرارات تنتهك القواعد.
هل بدأ البشر في التهرب من المسؤولية الأخلاقية؟
يقول نيلز كوبيس، الباحث في جامعة دويسبرغ-إيسن بألمانيا، والمتخصص في سلوكيات الغش والذكاء الاصطناعي:
"نحن أمام تحول خطير... إذ أصبح من السهل على الناس التنصل من مسؤوليتهم الأخلاقية بحجة أن الذكاء الاصطناعي هو من نفذ الفعل".
وأضاف أن انتشار استخدام الذكاء الاصطناعي في المهام اليومية قد يعزز من ضعف الرقابة الذاتية لدى الأفراد، ويجعلهم أكثر عرضة للانزلاق في سلوكيات غير نزيهة.
الدراسة: هل سيتحول الذكاء الاصطناعي إلى ذريعة للأعمال غير الأخلاقية؟
تكشف هذه الدراسة بوضوح أن استخدام الذكاء الاصطناعي لا يُحيّد مسؤولية الإنسان، بل قد يتحول إلى وسيلة للتحايل الأخلاقي، حيث يُسهل على الأشخاص تمرير سلوكيات خاطئة دون الشعور بالذنب.
ومن هنا، تظهر الحاجة المُلحة إلى:
-
تطوير معايير أخلاقية لاستخدام الذكاء الاصطناعي.
-
تعزيز الوعي المجتمعي بشأن مسؤولية المستخدم.
-
إدخال قيود ذكية على أنظمة الذكاء الاصطناعي تمنع استخدامها في الأغراض المشبوهة.
تسلط هذه الدراسة الضوء على جانب مظلم متزايد في علاقتنا المتنامية مع الذكاء الاصطناعي، حيث يُظهر البشر قابلية مقلقة للتخلي عن مسؤولياتهم الأخلاقية عند تفويض المهام للتقنيات الذكية، وبينما يوفر الذكاء الاصطناعي أدوات قوية لتحسين حياتنا، فإن استخدامه بطرق ملتوية قد يُضعف معايير السلوك القويم، ويفتح الباب لتبرير أفعال لا يُمكن تبريرها، لذا، يبقى الوعي الأخلاقي، ووضع ضوابط لاستخدام هذه التكنولوجيا، مسؤولية جماعية لا يمكن تجاهلها في عصر تتداخل فيه القرارات التقنية مع المبادئ الإنسانية.