دوليعربي ودولي

ترحيب أميركي بقرار للجمعية العامة يخص الذكاء الاصطناعي “الآمن”

رحبت الولايات المتحدة، الخميس، باعتماد الجمعية العامة للأمم المتحدة القرار الذي قدمته للوصول إلى “توافق عالمي حول أنظمة الذكاء الاصطناعي الآمنة والموثوقة لتعزيز التنمية المستدامة”.

وأكد وزير الخارجية الأميركي، أنتوني بلينكن، أنه “باعتماد الجمعية العامة للأمم المتحدة للقرار الذي قادته الولايات المتحدة بشأن الذكاء الاصطناعي، تحدثت الدول الأعضاء في الأمم المتحدة بصوت واحد لتحديد توافق عالمي حول أنظمة الذكاء الاصطناعي الآمنة والموثوقة لتعزيز التنمية المستدامة”.

وقال بلينكن في بيان إن “هذا القرار التوافقي الذي تم تطويره بمداخلات مباشرة من أكثر من 120 دولة والذي شاركت في رعايته أكثر من 120 دولة عضواً من كل منطقة يعد جهداً تاريخياً ونهجاً عالمياً هو الأول من نوعه لتطوير واستخدام هذه التكنولوجيا الناشئة القوية” .

وأوضح الوزير الأميركي أن “الذكاء الاصطناعي يتمتع بإمكانات هائلة لتعزيز التنمية المستدامة وأهدافها. ويساعد هذا القرار على ضمان وصول فوائد الذكاء الاصطناعي إلى البلدان من جميع المناطق وعلى جميع مستويات التنمية ويركز على بناء القدرات وسد الفجوات الرقمية، وخاصة بالنسبة للبلدان النامية. وهو يؤكد الإجماع على أن أنظمة الذكاء الاصطناعي يمكن أن تحترم حقوق الإنسان والحريات الأساسية مع تحقيق التطلعات إلى التنمية المستدامة”.

ودعا بلينكن “الحكومات إلى العمل مع القطاع الخاص والمجتمع المدني والمنظمات الدولية والإقليمية والأوساط الأكاديمية ومؤسسات البحث والمجتمعات التقنية وجميع أصحاب المصلحة الآخرين لبناء هذا النهج”. واعتبر أن هذا القرار “سيكون بمثابة الأساس لجهود الذكاء الاصطناعي المتعددة الأطراف ومبادرات الأمم المتحدة الحالية والمستقبلية”.

وشدد على أن “الولايات المتحدة ستواصل العمل مع الحكومات والشركاء الآخرين لضمان أن يكون تصميم وتطوير ونشر واستخدام التقنيات الناشئة بما في ذلك الذكاء الاصطناعي آمناً وجديراً بالثقة وموجهاً نحو تحقيق أهدافنا المشتركة وحل تحدياتنا الأكثر إلحاحاً”.

وأتت تصريحات بلينكن بعد بيان لكامالا هاريس، نائبة لرئيس الأميركي، جو بايدن، أكدت فيه ترحيب بلادها “باعتماد الجمعية العامة للأمم المتحدة قراراً يحدد مبادئ نشر واستخدام الذكاء الاصطناعي”.

وأضافت “أنا والرئيس بايدن ملتزمان بإنشاء وتعزيز القواعد والمعايير الدولية بشأن التكنولوجيا الناشئة، لأن التكنولوجيا ذات التأثير العالمي، مثل الذكاء الاصطناعي، تتطلب عملاً عالمياً، وعندما يتعلق الأمر بتحديات القرن الحادي والعشرين، نعتقد أنه يجب على جميع الدول أن تسترشد بمجموعة مشتركة من التفاهمات. يعد هذا القرار الذي اقترحته الولايات المتحدة وشاركت في رعايته أكثر من 100 دولة، خطوة تاريخية نحو وضع معايير دولية واضحة للذكاء الاصطناعي وتعزيز أنظمة الذكاء الاصطناعي الآمنة والجديرة بالثقة”.

وذكرت أنه “وكما قلتُ في لندن، العام الماضي، يجب أن يكون الذكاء الاصطناعي في المصلحة العامة، ويجب اعتماده وتطويره بطريقة تحمي الجميع من الضرر المحتمل وتضمن قدرة الجميع على الاستمتاع بفوائده. ويجب علينا أيضاً أن نتعامل مع مجموعة كاملة من المخاطر، بدءاً من العواقب الكارثية التي تهدد البشرية جمعاء إلى الأضرار التي يشعر بها الأفراد والمجتمعات، مثل التحيز”.

ونوهت إلى أنه “في كثير من الأحيان، في الثورات التكنولوجية الماضية، لم يتم تقاسم الفوائد بشكل عادل، وشعرت بالأضرار قِلة غير متناسبة. يرسم هذا القرار طريقاً للمضي قدماً في مجال الذكاء الاصطناعي حيث يمكن لكل دولة أن تغتنم الوعد وتدير مخاطر الذكاء الاصطناعي”.

وشددت على أنه بهذا القرار “تدرك جميع الدول الحاجة لحماية سلامة مواطنيها وخصوصيتهم وحقوقهم الإنسانية. ويوضح القرار أن حماية حقوق الإنسان والحريات الأساسية يجب أن تكون محورية في تطوير واستخدام أنظمة الذكاء الاصطناعي”.

وأكد مسؤولون أميركيون أن الجمعية العامة للأمم المتحدة اعتمدت بالإجماع، الخميس، أول قرار عالمي بشأن الذكاء الاصطناعي بهدف تشجيع حماية البيانات الشخصية وحقوق الإنسان ومراقبة المخاطر.

وقال المسؤولون في مؤتمر صحفي قبل التصديق على القرار غير الملزم الذي اقترحته الولايات المتحدة ودعمته الصين و121 دولة أخرى، إن عملية التفاوض استغرقت ثلاثة أشهر. ويدعو القرار أيضا إلى تعزيز سياسات حماية الخصوصية.

وقالت السفيرة الأميركية لدى الأمم المتحدة، ليندا توماس غرينفيلد: “اليوم، تحدث جميع أعضاء الجمعية العامة للأمم المتحدة البالغ عددهم 193 عضوا بصوت واحد، واختاروا معا أن يتحكموا في الذكاء الاصطناعي بدلا من السماح له بالتحكم فينا”.

القرار هو الأحدث في سلسلة من المبادرات أطلقتها الحكومات في جميع أنحاء العالم لتنظيم التطور في مجال الذكاء الاصطناعي، وسط مخاوف من إمكانية استخدامه لتقويض الممارسات الديمقراطية، أو زيادة الاحتيال، أو فقدان الوظائف على نطاق واسع، من بين مخاوف أخرى.

ولم تكن أغلب المبادرات السابقة فعالة في التعامل مع تلك المخاوف.

وجاء في القرار أن “التصميم الضار أو غير السليم لأنظمة الذكاء الاصطناعي وتطويرها ونشرها واستخدامها… يشكل مخاطر يمكن أن… تقوض حماية وتعزيز وممارسة حقوق الإنسان والحريات الأساسية”.

وقال أحد المسؤولين، الذي تحدث شريطة عدم الكشف عن هويته “نعتقد أن القرار يحقق التوازن المناسب بين تعزيز التنمية والاستمرار في حماية حقوق الإنسان”، وفق ما نقلته رويترز.

وفي نوفمبر، كشفت الولايات المتحدة وبريطانيا وأكثر من 12 دولة أخرى عن أول اتفاق دولي مفصل حول مواجهة أضرار الذكاء الاصطناعي، مما دفع الشركات إلى تطوير أنظمة ذكاء اصطناعي “آمنة من حيث التصميم”.

مقالات ذات صلة

زر الذهاب إلى الأعلى