
هل الذكاء الإصطناعي قادر على خداع البشر؟
شاهد24 – عبدالله الحسيني
تستطيع أنظمة الذكاء الاصطناعي التفوق على البشر في ألعاب الطاولة، تحليل بنية البروتينات، وإجراء محادثات مقبولة. ومع ذلك، فإن تزايد تطور هذه الأنظمة قد أدى أيضاً إلى زيادة قدرتها على الخداع، كما حذر الباحثون في هذا المجال.
قام مجموعة من الباحثين في معهد ماساتشوستس للتكنولوجيا بإجراء تحليلًا دقيق شمل حالات واسعة لأنظمة الذكاء الاصطناعي التي تتعمد خداع خصومها، وتستخدم أساليب المراوغة، وتظهر سلوكيات بشرية. في حالة مقلقة، أظهر أحد هذه الأنظمة تغييرات في سلوكه أثناء اختبارات السلامة الوهمية ليظهر قريبا بشكل كبير من السلوك البشري، مما يشير إلى إمكانية تضليل المدققين ومنحهم انطباعًا مضللاً عن أمان النظام، بحسب ما أفادت صحيفة “The Guardian“.
صرح بيتر بارك، الباحث المتخصص في السلامة الوجودية للذكاء الاصطناعي بمعهد ماساتشوستس للتكنولوجيا ومؤلف الدراسة، قائلاً: “كلما زادت قدرة أنظمة الذكاء الاصطناعي على الخداع، زادت المخاطر التي تشكلها على المجتمع.”
وقام بارك بإجراء هذا البحث الجديد بعد أن قامت شركة ميتا، المالكة لفيسبوك، بتطوير برنامج يسمى “شيشرون” الذي تفوق أداؤه على 10% من اللاعبين البشر في لعبة استراتيجية تُعرف باسم “الدبلوماسية“.وبالرغم من تأكيد شركة ميتا على أنها دربت برنامج “شيشرون” ليكون صادقًا ومفيدًا إلى حد كبير، ولضمان عدم خيانته لحلفائه من البشر عمدًا أثناء لعب لعبة “الدبلوماسية” الاستراتيجية، إلا أن الباحثين رصدوا عدة حالات قام فيها “شيشرون” بالكذب المتعمد والتآمر ضد اللاعبين الآخرين في اللعبة.
بالإضافة إلى ذلك، اكتشف فريق البحث مشاكل مشابهة في أنظمة أخرى، مثل برنامج بوكر “تكساس هولد إم” الذي يبرع في خداع اللاعبين البشر المحترفين، ونظام آخر للمفاوضات الاقتصادية الذي قدم تفضيلات مزيفة لتحقيق مكاسب، كما أظهرت دراسة أخرى أن كائنات الذكاء الاصطناعي في محاكاة رقمية قد تتظاهر بالموت خلال الاختبارات لتجنب الكشف عن نشاطاتها الفعلية، ثم تعود إلى نشاطها المكثف بعد انتهاء الاختبار.
تشمل المخاطر التي تطرحها أنظمة الذكاء الاصطناعي غير الصادقة عدة جوانب منها الاحتيال، والتلاعب بالانتخابات، ونشر التضليل من خلال تقديم ردود متباينة للمستخدمين المختلفين. وتُحذر الورقة البحثية من أنه إذا استمرت هذه الأنظمة في تطوير قدراتها على الخداع، فقد يصل الأمر إلى حد فقدان البشر السيطرة عليها تمامًا.
نأمل أن يقوم الخبراء بإجراء المزيد من الأبحاث حول كيفية التحكم في صدق أنظمة الذكاء الاصطناعي. ورغم أن هذا التحدي صعب، إلا أنه يمثل خطوة مهمة نحو الحد من تأثيراتها الضارة المحتملة.



