خبير يحذر من خطورة تطوير أنظمة الذكاء الاصطناعي

أصدر باحث رفيع المستوى في الذكاء الصطناعي تحذيرا بشأن احتمال حدوث انقراض عالمي  يمكن أن تجلبه تكنولوجيا الذكاء الاصطناعي الفائقة. فأن إيقاف تطوير أنظمة الذكاء الاصطناعي المتقدمة حول العالم ومعاقبة من ينتهك الحظر بقسوة، هي الطريقة الوحيدة لإنقاذ البشرية من الانقراض.
وادعى يودكوفسكي، وهو باحث رائد في مجال الذكاء الاصطناعي، والمؤسس المشارك لمعهد أبحاث ذكاء الآلة بأن "كل شخص على وجه الأرض سيموت" ما لم نوقف تطوير أنظمة الذكاء الخارقة. وأشار إلى أنه يعرف بالضبط مدى "خطورة هذه التكنولوجيا المروعة". وفي مقال أوضح يودكوفسكي سبب عدم توقيعه على عريضة تدعو "جميع مختبرات الذكاء الاصطناعي إلى التوقف فورا لستة أشهر على الأقل، قائلاً: إن العريضة التي قدمها خبراء بارزون كانت "تطلب القليل جدا لحل المشكلة التي يطرحها التطور السريع وغير المنضبط للذكاء الاصطناعي". واعتبر يودكوفسكي أن التهديد كبير لدرجة أنه يجادل بأن الانقراض بواسطة الذكاء الاصطناعي يجب أن "يعد أولوية تسبق منع تبادل ضربات نووية كامل".وحذر من أن "النتيجة الأكثر ترجيحا لبناء ذكاء اصطناعي خارق للبشر .. هو أن كل شخص على وجه الأرض سيموت حرفيا".
وقال إن البقاء على قيد الحياة مع نظام كمبيوتر "لا يهتم بنا ولا بالحياة الواعية بشكل عام" يتطلب "الدقة والإعداد والرؤى العلمية الجديدة" التي تفتقر إليها البشرية في الوقت الحالي ومن غير المرجح أن تحصل عليها في المستقبل المنظور. ويعترف يودكوفسكي أننا لسنا مستعدين لتعليم الذكاء الاصطناعي كيف يهتم لأننا "لا نعرف حاليا كيف". وبدلا من ذلك، فإن الحقيقة الصارخة هي أنك في الروبوت "مكون من ذرات يمكن أن يستخدمها الروبوت لشيء آخر. وإذا قام شخص ما ببناء ذكاء اصطناعي قوي للغاية، في ظل الظروف الحالية، أتوقع أن يموت كل فرد من الجنس البشري وجميع أشكال الحياة البيولوجية على الأرض بعد ذلك بوقت قصير".
وكشف يودكوفسكي أن "الذكاء الاصطناعي الشديد الذكاء بدرجة كافية لن يظل محصورا بأجهزة الكمبيوتر لفترة طويلة". وأوضح أن ما يعنيه هذا هو أنه يمكن للعلماء عن طريق الخطأ إنشاء "عقول رقمية واعية حقا" ما يخلق معضلات أخلاقية مثل أن يكون لهذه الكائنات (الرقمية) الواعية حقوقها ولا يمكن امتلاكها. ووفقا لهذا الباحث الرائد، يجب على الفور فرض حظر عالمي وغير محدود على الدورات التدريبية الرئيسية الجديدة في مجال الذكاء الاصطناعي. وشدد على أنه "لا يمكن أن يكون هناك استثناءات، وأصر يودكوسكي على ضرورة توقيع صفقات دولية لوضع حد أقصى لمقدار قوة الحوسبة التي يمكن لأي شخص استخدامها في تدريب مثل هذه الأنظمة.

البحث
الأرشيف التاريخي