الفاتيكان يحذّر من «ظل الشر» في الذكاء الاصطناعي
الفاتيكان يحذّر من «ظل الشر» في الذكاء الاصطناعي
إعداد / جورج حنا شكرو
دعا الفاتيكان، يوم (الثلاثاء) 28-01-2025، الحكومات إلى مراقبة تطور الذكاء الاصطناعي عن كثب ، وحذر من أن «ظل الشر» موجود في هذه التكنولوجيا ، لقدرتها على نشر المعلومات المضللة ، وفق ما أوردته وكالة ” رويترز
وجاء في وثيقة جديدة عن أخلاقيات استخدام الذكاء الاصطناعي كتبتها إدارتان في الفاتيكان ووافق عليها البابا فرنسيس : الاصطناعي يمكن أن يعمل تدريجياً على تقويض أسس المجتع
وذكرت الوثيقة أن «هذه القضية تتطلب تنظيماً دقيقاً لأن المعلومات المضللة الواردة تحديداً من وسائل الإعلام التي يسيطر عليها الذكاء الاصطناعي أو التي تتأثر به يمكن أن تنتشر عن غير قصد ، مما يؤدي إلى تأجيج الاستقطاب السياسي والاضطرابات الاجتماعة . ( الإعلام المضلل الناجم عن الذكاء الإصطناعي يمكن أن يعمل تدريجياً على تقويض أسس المجتمع )
وسلط البابا فرنسيس الضوء في السنوات القليلة الماضية على القضايا الأخلاقية المحيطة بالذكاء الاصطناعي
وبعث برسالة عن الذكاء الاصطناعي إلى المنتدى الاقتصادي العالمي في دافوس الأسبوع الماضي ، وحذر زعماء السياسة والاقتصاد ورجال الأعمال هناك من أن هذه التكنولوجيا تثير «مخاوف بالغة» بشأن مستقبل البشرية
وتحدث البابا أيضاً عن الذكاء الاصطناعي خلال قمة مجموعة السبع في إيطاليا في يونيو (حزيران) ، وقال إن الناس يجب ألا يسمحوا للخوارزميات بتحديد مصيرهم
وتناولت وثيقة الفاتيكان الجديدة التي تحمل عنوان «القديم والجديد» تأثير الذكاء الاصطناعي على مجموعة من القطاعات من بينها سوق العمل والرعاية الصحية والتعليم
وجاء في الوثيقة : «كما هو الحال في جميع المجالات التي يُطلب من البشر فيها اتخاذ قرارات، يلوح ظل الشر هنا أيضاً… يحتاج التقييم الأخلاقي لهذه التكنولوجيا إلى الأخذ في الاعتبار كيفية توجيهها واستخدامها
* الوثيقة
الكرسي الرسولي: الذكاء الاصطناعي فرصة ، لكن الإنسان يخاطر بأن يصبح عبدًا للآلات
مذكرة حول العلاقة بين الذكاء الاصطناعي والذكاء البشري نشرتها دائرة عقيدة الإيمان بالتعاون مع دائرة الثقافة والتربية : “الذكاء الاصطناعي ليس شكلاً اصطناعيًّا من أشكال الذكاء، بل هو أحد نتاجاته”. كذلك يتم تسليط الضوء على الإمكانات والتحديات في مجالات التعليم والاقتصاد والعمل والصحة والعلاقات الإنسانية والدولية وسياقات الحرب
“تشكل تحذيرات البابا فرنسيس حول الذكاء الاصطناعي في السنوات الأخيرة الخطوط العريضة لمذكرة “Antiqua et nova”، وهي مذكرة حول العلاقة بين الذكاء الاصطناعي والذكاء البشري الناتجة عن التفكير المتبادل بين دائرة عقيدة الإيمان ودائرة الثقافة والتربية . وثيقة موجهة إلى جميع المدعوين إلى التربية ونقل الإيمان ، وإنما أيضًا إلى الذين يشاركون في الحاجة إلى تطور علمي وتكنولوجي “في خدمة الإنسان والخير العام” . في ١١٧ فقرة ، تسلط المذكرة “Antiqua et nova” ، الضوء على تحديات وفرص تطور الذكاء الاصطناعي في مجالات التعليم والاقتصاد والعمل والصحة والعلاقات وسياقات الحرب. في هذا المجال الأخير، على سبيل المثال، يمكن أن تؤدي إمكانات الذكاء الاصطناعي إلى زيادة موارد الحرب “إلى ما هو أبعد من متناول البشر”، الأمر الذي يسرِّع “سباق تسلح مزعزع للاستقرار مع عواقب مدمرة لحقوق الإنسان”
بشكل مفصَّل ، تسرد الوثيقة مخاطر الذكاء الاصطناعي وإنما أيضًا التقدم الذي يشجعه باعتباره “جزءًا من تعاون” الإنسان مع الله . ولكنها مع ذلك ، لا تخفي القلق الذي يرافق جميع الابتكارات التي لا يمكن التنبؤ بآثارها . تم تخصيص عدة فقرات من المذكرة للتمييز بين الذكاء الاصطناعي والذكاء البشري . ومن “المُضلِّل” ، كما نقرأ ، استخدام كلمة “ذكاء” في الإشارة إلى الذكاء الاصطناعي لأنّه ليس “شكلاً اصطناعيًا من أشكال الذكاء”، بل هو “أحد منتجاته” . ومثل أي منتج من منتجات الإبداع البشري، يمكن للذكاء الاصطناعي أيضًا أن يكون موجهًا نحو “غايات إيجابية أو سلبية”. يمكن للذكاء الاصطناعي أن يقدم “ابتكارات مهمة” ولكنه أيضًا قد يؤدي إلى تفاقم حالات التمييز والفقر والفجوة الرقمية وعدم المساواة الاجتماعية . ما يثير “المخاوف الأخلاقية” هو حقيقة أن “الجزء الأكبر من السلطة على التطبيقات الرئيسية للذكاء الاصطناعي تتركز في أيدي عدد قليل من الشركات القوية” ، وهكذا ينتهي الأمر بالتلاعب بهذه التكنولوجيا من أجل تحقيق “مكاسب شخصية أو مكاسب الشركات
بالإشارة إلى الحروب، تسلّط المذكرة الضوء على أن أنظمة الأسلحة المستقلة والفتاكة. الفاتيكان يحذّر من «ظل الشر» في الذكاء الاصطناعي القادرة على تحديد الأهداف وضربها
هي “سبب خطير للقلق الأخلاقي” . في الواقع ، دعا البابا فرنسيس إلى حظر استخدامها لأنها تشكل تهديدًا حقيقيًا “لبقاء البشرية أو مناطق بأكملها” . إن هذه التقنيات ، كما تُندِّد المذكرة “Antiqua et nova”، “تمنح الحرب قوة تدميرية لا يمكن السيطرة عليها وتؤثر على العديد من المدنيين الأبرياء ، بدون أن تستثني حتى الأطفال “. وفيما يتعلق بالعلاقات الإنسانية ، تشير الوثيقة إلى أن الذكاء الاصطناعي يمكنه أن يقود إلى “عزلة ضارة” ، وأن “تشبيه الذكاء الاصطناعي بالإنسان” يطرح مشاكل لنمو الأطفال ، وأن تمثيل الذكاء الاصطناعي كشخص هو “انتهاك أخلاقي خطير” إذا ما استخدم ذلك لأغراض احتيالية . تمامًا كما أن استخدام الذكاء الاصطناعي للخداع في سياقات مثل التعليم والعلاقات والجنس هو أمر “غير أخلاقي ويتطلب يقظة حذرة
هذه اليقظة عينها تُطلب في المجال الاقتصادي والمالي . في مجال العمل بشكل خاص ، يمكننا أن نلاحظ أنه في حين أن الذكاء الاصطناعي لديه “إمكانية” زيادة المهارات والإنتاجية من ناحية، يمكنه من ناحية أخرى أن “ينقص من مهارات العمال ، ويخضعهم للمراقبة الآلية ويحيلهم إلى وظائف جامدة ومتكررة” . كذلك تخصص المذكرة “Antiqua et nova” ، مساحة واسعة لمسألة الرعاية الصحية . مع التذكير بالإمكانات الهائلة في مختلف التطبيقات في المجال الطبي، وتحذِّر المذكرة في هذا السياق من أنه إذا حل الذكاء الاصطناعي محل العلاقة بين الطبيب والمريض ، فسيخاطر “بتفاقم” الوحدة التي غالبًا ما ترافق المرض . كما تنبّه المذكرة أيضًا من تعزيز “طبٍّ للأغنياء”، يستفيد فيه الأشخاص الذين لديهم إمكانيات مالية من الأدوات المتقدمة ، بينما لا يستطيع الآخرون الحصول حتى على الخدمات الأساسية
وتبرز المخاطر أيضًا في مجال التعليم. إذا تم استخدام الذكاء الاصطناعي بحذر، يمكن للذكاء الاصطناعي أن يحسن الحصول على التعليم ويقدم “إجابات فورية” للطلاب . وتكمن المشكلة في أن العديد من البرامج “لا تقدم سوى إجابات بدلاً من أن تدفع الطلاب إلى البحث عنها بأنفسهم ، أو كتابة النصوص بأنفسهم “؛ الأمر الذي يؤدي إلى عدم تطوير فكرٍ نقدي . ناهيك عن كمية “المعلومات المشوهة أو المفبركة” و”الأخبار المزيفة” التي يمكن أن تولدها بعض البرامج . وفيما يتعلق بموضوع الأخبار المزيّفة ، تحذر المذكّرة من الخطر الجسيم المتمثل في “توليد الذكاء الاصطناعي لمحتوى تم التلاعب به ومعلومات كاذبة ” ، والتي يتم نشرها بعد ذلك “للخداع أو الإضرار” . وجاء النداء في هذا السياق “للحرص دائمًا على التحقق من صحة” ما يتم نشره وتجنب “مشاركة الكلمات والصور التي تحط من قدر الإنسان”، واستثناء “ما يؤجج الكراهية والتعصب” أو يحط من “حميمية الجنس”
فيما يتعلق بالخصوصية والرقابة ، تشير المذكرة إلى أن بعض أنواع البيانات يمكنها أن تصل إلى حد “المساس حتى بضمير الشخص” ، مع خطر أن يصبح كل شيء “نوعًا من المشاهد التي يمكن التجسس عليها” . كما “يمكن استخدام المراقبة الرقمية لممارسة السيطرة على حياة المؤمنين وتعبيرهم عن إيمانهم” . أما فيما يتعلق بموضوع الخليقة ، فتُعتبر تطبيقات الذكاء الاصطناعي لتحسين العلاقة مع البيت المشترك “واعدة”. في الوقت عينه ، تتطلب نماذج الذكاء الاصطناعي الحالية “كميات هائلة من الطاقة والمياه وتساهم بشكل كبير في انبعاثات ثاني أكسيد الكربون، فضلاً عن كونها كثيفة الاستخدام للموارد”. وأخيراً ، تحذر المذكرة من خطر أن يصبح البشر “عبيداً لعملهم”. ومن هنا تأتي التوصية : “ينبغي استخدام الذكاء الاصطناعي فقط كأداة مكملة للذكاء البشري وليس كبديلٍ لغناه
الفاتيكان
الثلاثاء ٢٨ كانون الثاني، ٢٠٢٥