على الرغم من إمكاناته الهائلة في تحسين حياة البشر، قد يحمل الذكاء الاصطناعي مخاطر جمة غير مسبوقة، بحسب ما ارتأى عدد من كبار الباحثين والمديرين التنفيذيين الذين دعوا إلى وضع إطار تنظيمي للذكاء الاصطناعي بفرض قيود على استخدامه بهدف درء مخاطره المحتملة على البشرية. في هذا المجال، أطلق الباحثون نداء يوم الإثنين في 22 أيلول/ سبتمبر 2025 تزامن مع افتتاح الجمعية العامة في الأمم المتحدة، دعوا فيه إلى تطوير “اتفاقات دولية” تضمن استخداماً آمناً لهذه التقنية بالتعاون مع الجهات الفاعلة والدول.
أوضح موقّعو النداء أن المطلوب “ضمانات بالحدّ الأدنى”، تشكّل “جامعا مشتركا” تتفق عليه الحكومات لاحتواء أشد المخاطر إلحاحا”.
تقف وراء هذه المبادرة جهات عدة منها المركز الفرنسي للأمان في الذكاء الاصطناعي و”ذي فيوتشر سوسايتي” ومركز الذكاء الاصطناعي المتوافق مع الإنسان في جامعة بيركلي، إضافة إلى 20 منظمة شريكة.
نبّه الموقّعون إلى أن “الذكاء الاصطناعي قد يتجاوز قريبا القدرات البشرية بكثير، ويزيد من بعض المخاطر كالأوبئة، وانتشار المعلومات المضللة، ومشاكل الأمن القومي، والبطالة الجماعية، وانتهاكات حقوق الإنسان”.
ومن بين الموقّعين شخصيات بارزة في هذا المجال، ككبير مسؤولي الأمن المعلوماتي في شركة “أنثروبيك” جيسون كلينتون، وبعض زملائه، بالإضافة إلى عدد من موظفي شركتي “ديب مايند” التابعة لمجموعة “غوغل”، و”أوبن إيه آي”، مبتكرة “تشات جي بي تي”.
تشمل القائمة أيضا الحائز جائزة نوبل في الفيزياء لعام 2024 جيفري هينتون الذي يعتبر أحد رواد الذكاء الاصطناعي الحديث، والأستاذ في جامعة مونتريال يوشوا بينجيو، أحد أكثر الشخصيات تأثيرا في هذا المجال.
وتسعى معظم الجهات الرئيسية في هذا القطاع إلى تطوير الذكاء الاصطناعي العام، وهي مرحلة يُعادل فيها الذكاء الاصطناعي كل القدرات الفكرية البشرية، وكذلك “الذكاء الخارق” الذي سيتجاوز هذه القدرات.
وذكّر موقّعو النداء بأن اتفاقات دولية سبق أن وُقِّعَت في شأن التقنيات التي تُعَدُّ خطرة على البشرية جمعاء أو على جزء منها، ومنها مثلا معاهدة عدم انتشار الأسلحة النووية (1970) أو بروتوكول جنيف (1925) لحظر استخدام الأسلحة الكيميائية، وقد وُسِّع نطاقه بموجب اتفاقية الأسلحة الكيميائية التي دخلت حيز التنفيذ عام 1997.
