دعا الملياردير إيلون موسك ومجموعة من الخبراء إلى التوقف عن تطوير أنظمة ذكاء اصطناعي قوية لإتاحة الوقت للتأكد من سلامتها.
وتمت المطالبة بخطاب مفتوح، وقع عليه أكثر من 1000 شخص حتى الآن، بما في ذلك موسك والمؤسس المشارك لشركة آبل، ستيف وزنياك، من خلال إصدار GPT-4 من شركة OpenAI المدعومة من مايكروسوفت.
وتقول الشركة إن أحدث طراز لها أقوى بكثير من الإصدار السابق، والذي تم استخدامه لتشغيل ChatGPT، وهو روبوت قادر على توليد أجزاء من النص من أقصر المطالبات.
وجاء في الرسالة المفتوحة بعنوان "إيقاف تجارب الذكاء الاصطناعي العملاقة مؤقتا": "يمكن لأنظمة الذكاء الاصطناعي ذات الذكاء التنافسي البشري أن تشكل مخاطر عميقة على المجتمع والإنسانية".
وقالت: "يجب تطوير أنظمة ذكاء اصطناعي قوية فقط بمجرد أن نكون واثقين من أن آثارها ستكون إيجابية وأن مخاطرها ستكون تحت السيطرة".
وكان موسك مستثمرا أوليا في OpenAI، وقضى سنوات في مجلس إدارتها، وتقوم شركته "تسلا" بتطوير أنظمة الذكاء الاصطناعي للمساعدة في تشغيل تكنولوجيا القيادة الذاتية، من بين تطبيقات أخرى.
وتم التوقيع على الرسالة، التي استضافها معهد Future of Life الممول من موسك، من قبل نقاد بارزين بالإضافة إلى منافسي OpenAI مثل رئيس Stability AI عماد موستيك.
وحذر رائد الذكاء الاصطناعي الكندي يوشوا بنجيو، وهو أحد الموقعين أيضا، في مؤتمر صحفي افتراضي في مونتريال من "أن المجتمع ليس مستعدا" لهذه الأداة القوية وإساءة استخدامها المحتملة.
وقال: "دعونا نبطئ. دعونا نتأكد من أننا نطور حواجز حماية أفضل"، داعيا إلى مناقشة دولية شاملة حول الذكاء الاصطناعي وآثاره، "كما فعلنا مع الطاقة النووية والأسلحة النووية".
واقتبس الخطاب من مدونة كتبها مؤسس OpenAI سام ألتمان، الذي اقترح أنه "في مرحلة ما، قد يكون من المهم الحصول على مراجعة مستقلة قبل البدء في تدريب الأنظمة المستقبلية".
وكتب معدو الرسالة المفتوحة: "نحن متفقون. هذه النقطة هي الآن. لذلك، ندعو جميع مختبرات الذكاء الاصطناعي إلى التوقف فورا لمدة 6 أشهر على الأقل عن تدريب أنظمة الذكاء الاصطناعي الأكثر قوة من GPT-4".
ودعوا الحكومات إلى التدخل وفرض تجميد إذا فشلت الشركات في الاتفاق.
ويجب استخدام الأشهر الستة لتطوير بروتوكولات السلامة وأنظمة حوكمة الذكاء الاصطناعي وإعادة تركيز البحث على ضمان أن تكون أنظمة الذكاء الاصطناعي أكثر دقة وأمانا و"جديرة بالثقة والولاء".
ولم تُفصّل الرسالة الأخطار التي كشفت عنها GPT-4.
لكن الباحثين، بمن فيهم غاري ماركوس من جامعة نيويورك، الذي وقع الرسالة، جادلوا منذ فترة طويلة بأن روبوتات الدردشة كاذبة كبيرة ولديها القدرة على أن تكون وسيلة منتشرة على نطاق واسع لبث المعلومات المضللة.انتهى/3