أخلاقيات الذكاء الاصطناعي

منذ بداية ظهور الذكاء الاصطناعي كثر النقاش حول اخلاقياته، وإلا أي حد يمكن استخدامه مع ضبطه لعدم تجاوز الحدود التي تحددها الانضمة والقيم والمصلحة العامة. ولكن هذا لم يمنع البعض من تجاوز الحدود في الاستخدام لأهداف شخصية أو تجارية.

تبع ذلك إرتفاع المطالبة بأن لا يترك الأمر للشركات التقنية في تحديد إطار أستخدامه والمبادئ المحددة لذلك، سواء كام ذلك في الإتحاد الأوروبي أو الولايات المتحدة الامريكية، أما بقية الدول فلم تصل بعد لمرحلة نقاش هذا الأمر، غالبا بسبب عدم امتلاكها لتقنيات متقدمة في المجال.

مع إرتفاع هذا الضغط والتجاذب بين الحكومات والشركات التقنية أنطلقت عدة مبادرات ومن ضمنها ما سمي بدعوة روما #RomeCall⁩ في 28 فبراير 2020، والتي تعمل على إنشاء ثقافة عالمية تضع الذكاء الاصطناعي في خدمة الصالح العام.في وقت سابق من هذا الأسبوع، انضم براد سميث إلى زملائه في مايكروسوفت وزعماء دينيين من جميع أنحاء العالم ومنظمات أخرى لدعم دعوة روما لأخلاقيات الذكاء الاصطناعي. ⁦وهي وثيقة موقعة من قبل الأكاديمية البابوية للحياة، مايكروسوفت، آي بي إم، منظمة الأغذية والزراعة ووزارة الابتكار، وهي جزء من الحكومة الإيطالية في روما لتعزيز نهج أخلاقي للذكاء الاصطناعي.

‏تتمثل الفكرة الكامنة وراء ذلك في تعزيز الشعور بالمسؤولية المشتركة بين المنظمات الدولية والحكومات والمؤسسات والقطاع الخاص في محاولة لخلق مستقبل يطور فيه الابتكار الرقمي والتقدم التقني لدعم الانسان وتمكينه.

التزم الموقعون بتطوير ذكاء اصطناعي يخدم كل شخص والإنسانية ككل؛ يحترم كرامة الإنسان، بحيث يمكن لكل فرد الاستفادة من التقدم التقني؛ ولا يكون هدف تطوير الذكاء الاصطناعي الوحيد هو تحقيق ربح أكبر أو الاستبدال التدريجي للأشخاص في مكان العمل.

‏تضم دعوة روما لأخلاقيات الذكاء الاصطناعي 3 مجالات و 6 مبادئ.

المجالات الثلاثة:

١- القيم: يولد جميع الناس أحرارًا ومتساوين في الكرامة والحقوق.

٢- التعليم: إن تحويل العالم من خلال ابتكار الذكاء الاصطناعي يعني الالتزام ببناء مستقبل للأجيال الشابة ومعها.

٣- الحقوق: يجب أن ينعكس تطوير الذكاء الاصطناعي في خدمة البشرية وكوكب الأرض في اللوائح والمبادئ التي تحمي الناس – ولا سيما الضعفاء والمحرومين – والبيئات الطبيعية.

المبادئ الستة:

.1 الشفافية : يجب أن تكون أنظمة الذكاء الاصطناعي مفهومة للجميع

.2 الشمولية: يجب ألا تميز هذه الأنظمة ضد أي شخص لأن لكل إنسان كرامة متساوية

.3 المساءلة: يجب أن يكون هناك دائمًا شخص يتحمل مسؤولية ما تفعله الآلة.

.4 الحياد: يجب ألا تتبع أنظمة الذكاء الاصطناعي أو تنشئ تحيزات.

.5 الموثوقية: يجب أن يكون الذكاء الاصطناعي موثوقًا.

.6 الأمان والخصوصية: يجب أن تكون هذه الأنظمة آمنة وتحترم خصوصية المستخدمين.

يقول براد سميث “تقنية الذكاء الاصطناعي مهمة للغاية بحيث لا يمكن تركها للتقنيين و لشركات التقنية وحدهم. لكن إدارته مهمة للغاية أيضا بحيث لايمكن تطويره من دون المشاركة الفعالة لقادة التقنية. يجب أن نجمع المجتمع بأسره لخلق فهم مشترك لواجباتنا تجاه التقنية”.

للمزيد اطلع على موقع منظمة Romecall