في خطوة هائلة نحو ضمان سلامة تطوير الذكاء الاصطناعي واستخدامه، تعهدت 16 شركة تكنولوجية رائدة، بما في ذلك جوجل ومايكروسوفت وأوبن إيه آي، بوضع مبادئ توجيهية صارمة للتطوير المسؤول للذكاء الاصطناعي. وتأتي هذه الاتفاقية، التي تم الكشف عنها في قمة سيول للذكاء الاصطناعي، كخطوة حاسمة لمعالجة المخاطر المحتملة المرتبطة بتكنولوجيا الذكاء الاصطناعي المتقدمة.
إعلان سيول حول الذكاء الاصطناعي الآمن والموثوق
أعلنت شركات التكنولوجيا الكبرى بما في ذلك جوجل ومايكروسوفت وOpenAI أنها توصلت إلى اتفاق دولي بشأن سلامة الذكاء الاصطناعي في قمة سيول للذكاء الاصطناعي؛ ويضمن هذا الاتفاق، الذي تم التوصل إليه بالتعاون مع سلطات مختلف البلدان، اتخاذ الخطوات اللازمة للحفاظ على السلامة في التطوير السريع للنماذج المتقدمة.
وفي الجولة الثانية من القمة الدولية للذكاء الاصطناعي التي استضافتها المملكة المتحدة وكوريا الجنوبية في سيول، أقرت 16 شركة تكنولوجية بأن الذكاء الاصطناعي، على الرغم من فوائده العظيمة قد يكون ضارا إذا استخدم بشكل غير صحيح. واتفقوا على اتخاذ خطوات عملية لنشر أطر السلامة وتجنب تطوير النماذج المعرضة لمخاطر لا يمكن السيطرة عليها والتعاون مع الهيئات التنظيمية على المستوى الدولي.
الاتفاقية الدولية لشركات التكنولوجيا بشأن سلامة الذكاء الاصطناعي
وتشمل الشركات الـ 16 المشاركة في هذه الاتفاقية: أمازون، أنثروبيك، جوجل، مايكروسوفت، أوبن إيه آي، ميتا، كوهير، إنفليكشن آي آي، ميسترال آي آي، إكس آي آي، آي بي إم. وإلى جانب الغربيين، هناك أيضًا شركات من الصين والشرق الأوسط مثل تينسنت، سامسونج، شاومي. ومن المفترض أن يقوم الباحثون والمهندسون بفحص أنظمة الذكاء الاصطناعي لتحديد التحيزات والمشكلات الأخرى التي قد تضر مجموعات مختلفة في المجتمع.
ويتضمن الإطار المتفق عليه «خطوطاً حمراء» تحدد أنواع المخاطر المرتبطة بأنظمة الذكاء الاصطناعي الرائدة ويمكن اعتبار هذه المخاطر، لا تطاق، ويمكن أن تشمل الهجمات السيبرانية الآلية والتهديد بالأسلحة البيولوجية. ومن أجل التعامل مع المخاطر بالغت الخطورة، أعلنت الشركات أنها ستفعل مفاتيح القتل (Kill Switch) التي يمكنها إيقاف عملية تطوير نماذج الذكاء الاصطناعي إذا كان من المستحيل منع هذه المخاطر.
مصطلح "Kill Switch" يُستخدم في سياقات متعددة، لكن في مجال الذكاء الاصطناعي، يشير إلى آلية أو سلسلة من الإجراءات، يتم تصميمها لمنح البشر القدرة على إيقاف تشغيل أو تعطيل نظام الذكاء الاصطناعي بشكل سريع في حال ظهور خطر أو وقوع كارثة.
وفي الاجتماع نفسه، أعلنت الحكومة البريطانية في بيان لها، أنه تم التوصل إلى اتفاق جديد بين 10 دول والاتحاد الأوروبي لإنشاء شبكة دولية مماثلة للمعهد البريطاني لسلامة الذكاء الاصطناعي؛ وستعمل الشبكة على تعزيز فهم أفضل لسلامة الذكاء الاصطناعي ومواءمة إجراءاتها مع الأبحاث والمعايير والاختبارات في هذا المجال. وقد وقعت أستراليا وكندا والاتحاد الأوروبي وفرنسا وألمانيا وإيطاليا واليابان وسنغافورة وكوريا الجنوبية وبريطانيا والولايات المتحدة الأمريكية على هذه الاتفاقية.