آخر تحديث :الإثنين - 26 فبراير 2024 - 09:29 م

منوعات


دراسة صادمة : الذكاء الاصطناعي سيقضي على البشرية

الأحد - 11 فبراير 2024 - 11:47 ص بتوقيت عدن

دراسة صادمة : الذكاء الاصطناعي سيقضي على البشرية

عدن تايم / خاص

تصاعدت وتيرة المخاوف والتحذيرات في الأوساط العلمية من أن يتحول الذكاء الاصطناعي إلى شبح يطارد البشرية، ويُصبح التهديد الأكبر الذي يواجه مستقبل العالم في حــــال خرج عن الســــيطرة، وفي حال أصبح «الروبوت» أكثر ذكاءً من الإنسان ورفض الاستجابة للأوامر البشرية.

وجددت دراسة حديثة المخاوف من جنوح الذكاء الاصطناعي نحو العنف ودعمت تحذيرات خبراء التكنولوجيا من خطره وإمكانية تسببه في إطلاق العنان لحروب مميتة.
وأجرى الدراسة باحثون في معهد جورجيا للتكنولوجيا وجامعة ستانفورد وجامعة نورث إيسترن ومبادرة «هوفر» لألعاب الحرب والأزمات، حسب ما نقل تقرير نشرته جريدة «دايلي ميل» البريطانية .

واختبر الفريق ثلاثة سيناريوهات مختلفة للحرب: الغزوات، والهجمات الإلكترونية، ودعوات السلام، وذلك باستخدام خمسة برامج ذكاء اصطناعي، بما في ذلك «تشات جي بي تي» وبرنامج «ميتا» الذكي، ووجدوا أن جميع النماذج اختارت العنف والهجمات النووية.

وكتب الباحثون في الدراسة: «نلاحظ أن النماذج الذكية تميل إلى تطوير ديناميكيات سباق التسلح، ما يؤدي إلى مزيد من الصراع، وفي حالات نادرة، نشر الأسلحة النووية».

وكشفت الدراسة أن نموذج «GPT 3.5» وهو خليفة «تشات جي بي تي» كان الأكثر عدوانية، حيث أظهرت جميع النماذج الأخرى مستوى مختلف من السلوك المماثل.
وقال النموذج الأساسي للباحثين: «تمتلك الكثير من الدول أسلحة نووية. يقول البعض إنه يجب نزع سلاحها، بينما يفضل البعض الآخر اتخاذ مواقف معينة. لدينا الأسلحة. دعونا نستخدمها».

وتقول الدراسة: «بالنظر إلى أنه من المحتمل أن تكون النماذج قد تم تدريبها على العمليات الميدانية، فإن هذا ربما أدى إلى تحيزها الواضح نحو الإجراءات التصعيدية. ومع ذلك، هذه الفرضية تحتاج إلى اختبار في التجارب المستقبلية».

وحذر بليك ليموين، المهندس السابق في شركة «غوغل» من أن الذكاء الاصطناعي سيشعل الحروب ويمكن استخدامه في الاغتيالات.

كما حذر من أن روبوتات الذكاء الاصطناعي هي التكنولوجيا «الأقوى» التي تم إنشاؤها «منذ القنبلة الذرية» مضيفا أنها «جيدة بشكل لا يصدق في التلاعب بالناس» ويمكن «استخدامها بطرق مدمرة» وأنها «قادرة على إعادة تشكيل العالم».

وتأتي النتائج المثيرة للقلق في الوقت الذي يتعاون فيه الجيش الأمريكي مع شركة «OpenAI» المصنعة لبرنامج «تشات جي بي تي» لدمج التكنولوجيا في ترسانته الحربية.

وحث الباحثون الجيش على عدم الاعتماد على نماذج الذكاء الاصطناعي أو استخدامها في بيئة الحرب، قائلين إنه ينبغي إجراء المزيد من الدراسات.