الفاتيكان
15 كانون الأول 2023, 06:55

صدور رسالة البابا فرنسيس لمناسبة اليوم العالميّ للسّلام 2024، ومضمونها؟

تيلي لوميار/ نورسات
تحت عنوان "الذّكاء الاصطناعيّ والسّلام" صدرت بالأمس رسالة البابا فرنسيس بمناسبة اليوم العالميّ السّابع والخمسين للسّلام.

وكتب الأب الأقدس في سطورها بحسب "فاتيكان نيوز": "في بداية السّنة الجديدة، زمن النّعمة الّذي يمنحه الرّبّ لكلّ فردٍ منّا، أودّ أن أتوجّه إلى شعب الله، وإلى شعوب العالم، ورؤساء الدّول والحكومات، وممثّلي الدّيانات المختلفة والمجتمع المدنيّ، وإلى جميع الرّجال والنّساء في زمننا، لكي أتقدّم من الجميع بأطيب أمنياتي للسّلام.

يؤكّد الكتاب المقدّس أنّ الله قد أعطى البشر روحه لكي تكون لهم "مَهارة وفَهْم ومَعرِفة بِجَميعِ الصَّنائع". الذّكاء هو تعبير عن الكرامة الّتي أعطانا إيّاها الخالق، الّذي خلقنا على صورته ومثاله، وجعلنا قادرين على أن نجيب على محبّته بالحرّيّة والمعرفة. إنَّ العِلم والتّكنولوجيا يُظهران بصورة خاصّة هذه الميزة الأساسيّة العلائقيّة للذّكاء البشريّ: إنّهما منتجان استثنائيّان لقدرته الإبداعيّة. في الدّستور الرّعائيّ فرح ورجاء، أعاد المجمع الفاتيكانيّ الثّاني التّأكيد على هذه الحقيقة، وأعلن أنّ "الإنسان قد سعى دائمًا لتطوير حياتَه بعملِه وذكائه". عندما يجتهد البشر، "بمساعدة التّكنولوجيا"، لكي تُصبح الأرض "مسكنًا يليق بالعائلة البشريّة كلّها"، هم يعملون بحسب تدبير الله ويتعاونون مع مشيئته لكي يتمِّموا الخلق وينشروا السّلام بين الشّعوب. كذلك وبقدر مساهمتهما في تحسين نظام المجتمع البشريّ، وفي زيادة الحرّيّة والشّركة الأخويّة يؤدّي العِلم والتّكنولوجيا إلى تحسين الإنسان وتحويل العالم.

ونحن بحقّ نفرح ونشعر بالامتنان لإنجازات العِلم والتّكنولوجيا الرّائعة، والّتي بفضلها وُجِدَ علاجٌ لعدد لا يحصى من الشّرور الّتي كانت تصيب الحياة البشريّة وتُسبّب آلامًا كبيرة. وفي الوقت عينه، إذ يجعل من الممكن ممارسة سيطرة غير مسبوقة على الواقع، يضع التّقدّم التّكنولوجيّ والعِلميّ، بين يدَيّ الإنسان مجموعة واسعة من الإمكانيّات، والّتي قد تُمثِّل بعضها خطرًا على بقاء الإنسان على قيد الحياة وعلى بيتنا المشترك. ولذلك يقدّم التّقدّم الملحوظ الذي حقّقته تكنولوجيّات المعلومات الجديدة، ولاسيّما في المجال الرّقميّ، فرصًا مدهشة ومجازفات خطيرة، لها آثار جدّيّة على السّعي لتحقيق العدالة والتّناغم بين الشّعوب. ولذلك من الضّروريّ أن نطرح على أنفسنا بعض الأسئلة المُلِحَّة. ما هي العواقب على المدى القريب والبعيد للتّكنولوجيّات الرّقميّة الجديدة؟ وماذا سيكون تأثيرها على حياة الأفراد والمجتمع وعلى الاستقرار الدّوليّ والسّلام؟

لقد بدأ تقدّم تكنولوجيا المعلومات وتطوّر التّكنولوجيّات الرّقميّة يُحدِث، في العقود الأخيرة، تغيّرات عميقة في المجتمع العالميّ وديناميكيّاته. كذلك بدأت الأدوات الرّقميّة الجديدة تغيّر وجه الاتّصالات والإدارة العامّة والتّعليم والاستهلاك والعلاقات بين الأشخاص، والعديد من الجوانب الأخرى للحياة اليوميّة. كذلك، يمكن للتّقنيّات الّتي تستخدم عددًا كبيرًا من الخوارزميّات أن تستخرج، من الآثار الرّقميّة التي تُترك على "الإنترنت"، البيانات الّتي تسمح بالتّحكّم في عادات الأشخاص العقليّة والعلائقيّة لأغراض تجاريّة أو سياسيّة، غالبًا دون علمِهم، وتحُدُّ من ممارستهم الواعية لحرّيّة الاختيار. في الواقع، في فُسحة مثل الشّبكة المعلوماتيّة العالميّة، الّتي تتميّز بكمّيّة زائدة من المعلومات، يمكن للتّقنيّات أن تنظّم تدفّق البيانات وفقًا لمعايير اختيار لا يتنبّه لها المستخدم دائمًا. وبالتّالي علينا أن نتذكّر أنّ البحث العِلميّ والابتكارات التّكنولوجيّة ليست بعيدة عن الواقع ولا "حياديّة"، ولكنّها تخضع لتأثيرات ثقافيّة. ولكونها نشاطات إنسانيّة بكلّ معنى الكلمة، فالاتّجاهات الّتي تأخذها تعكس خيارات تحدّدها القيَم الشّخصيّة والاجتماعيّة والثّقافيّة لكلّ عصر. ويمكن قول الشّيء نفسه عن النّتائج الّتي تحقّقها: فلكونها نتيجة لمقاربات إنسانيّة في البيئة المحيطة بها، فهي تملك على الدّوام بُعدًا أخلاقيًّا، يرتبط ارتباطًا وثيقًا بقرارات الّذين يخطّطون للتّجربة ويوجّهون الإنتاج نحو أهداف خاصّة. وهذا الأمر ينطبق أيضًا على أشكال الذّكاء الاصطناعيّ؛ الّتي لا يوجد لها حتّى الآن تعريف موحّد في عالم العِلم والتّكنولوجيّا. إنَّ المصطلح نفسه، الّذي دخل الآن في اللّغة العامّة، يشمل مجموعة متنوّعة من العلوم والنّظريّات والتّقنيّات الموجّهة لكي تجعل الآلات تُكرِّر أو تقلِّد القدرات المعرفيّة للبشر في أدائها. لذلك فالحديث بصيغة الجمع عن "أشكال الذّكاء" يمكنه أن يساعد في المقام الأوّل على تسليط الضّوء على الفجوة الهائلة والضّخمة بين هذه الأنظمة، مهما كانت عجيبة وقويّة، وبين الشّخص البشريّ: فهي في نهاية المطاف "مُجَزِّأة"، بمعنى أنّها يمكنها فقط أن تقلِّد أو أن تُكرِّر بعض وظائف الذّكاء البشريّ. كذلك يبيِّن استخدام صيغة الجمع أنّ هذه الأدوات، المختلفة فيما بينها، يجب أن يتمَّ اعتبارها دائمًا "أنظمة اجتماعيّة تقنيّة". لأنّ تأثيرها، في الواقع، بغضّ النّظر عن التّكنولوجيا الأساسيّة، لا يعتمد على التّصميم وحسب، وإنّما أيضًا على أهداف ومصالح الّذين يمتلكونها والّذين يقومون بتطويرها، وكذلك على الحالات الّتي يتمُّ فيها استخدامها. ولذلك، يجب أن يُفهم الذّكاء الاصطناعيّ كعالم من الحقائق المختلفة، ولا يمكننا أن نفترض بداهة أنّ تطوّره سيقدّم مساهمة مفيدة لمستقبل البشريّة وللسّلام بين الشّعوب. ولن تكون هذه النّتيجة الإيجابيّة ممكنة إلّا إذا أثبتنا أنّنا قادرون على التّصرّف بأسلوب مسؤول وباحترام القيَم الإنسانيّة الأساسيّة مثل الإدماج والشّفافيّة والأمن والمساواة والسّريّة والثّقة.

لا يكفي حتّى أن نفترض التزام الّذين يصمّمون الخوارزميّات والتّقنيّات الرّقميّة بالتّصرّف بطريقة أخلاقيّة ومسؤولة. بل ينبغي أن نُعزّز، أو، إذا لزم الأمر، أن نؤسّس هيئات مسؤولة عن دراسة القضايا الأخلاقيّة المترتّبة عليها وحماية حقوق الّذين يستخدمون بعض أشكال الذّكاء الاصطناعيّ أو يتأثّرون بها. ولذلك يجب على التّوسّع الهائل للتّكنولوجيا أن يترافق بتنشئة ملائمة على المسؤوليّة من أجل تطوّره. تتعرّض الحرّيّة والتّعايش السّلميّ للتّهديد عندما يستسلِم البشر لتجرة الأنانيّة والمصلحة الشّخصيّة والجشع في الرّبح والتّعطّش إلى السّلطة. ولذلك، يقع على عاتقنا واجب توسيع الرّؤية وتوجيه البحث العِلميّ والتّقنيّ نحو تحقيق السّلام والخير العامّ، في خدمة التّنمية المتكاملة للإنسان والجماعة. وبالتّالي على الكرامة الجوهريّة لكلّ شخص والأخوّة الّتي تربطنا كأعضاء في العائلة البشريّة الواحدة أن تكونا في أساس تطوير التّكنولوجيّات الجديدة، وتخدما كمعايير لا جدال فيها لتقييمها قبل استعمالها، لكي يتمَّ التّقدّم الرّقميّ في احترام العدالة ويساهم في قضيّة السّلام. إنَّ التّطوّرات التّكنولوجيّة الّتي لا تؤدّي إلى تحسين نوعيّة حياة البشريّة جمعاء، بل تؤدّي إلى تفاقم عدم المساواة والصّراعات، لا يمكن اعتبارها أبدًا تقدّمًا حقيقيًّا. إنَّ الذّكاء الاصطناعيّ سيصبح أكثر أهمّيّة على الدّوام. والتّحدّيات الّتي يطرحها هي تحدّيات تقنيّة، ولكنّها أيضًا أنثروبولوجيّة وتربويّة واجتماعيّة وسياسيّة. فهي تَعِد، مثلًا، بتوفير الجهد، وبإنتاج أكثر فعّاليّة، ووسائل نقل أكثر راحة، وأسواق أكثر ديناميكيّة، بالإضافة إلى ثورة في عمليّات جمع البيانات وتنظيمها والتّحقّق منها. لذلك علينا أن نتنبّه للتّحوّلات السّريعة القائمة وأن نديرها بطريقة تصون حقوق الإنسان الأساسيّة، وتحترم المؤسّسات والقوانين الّتي تعزّز التّنمية البشريّة المتكاملة. على الذّكاء الاصطناعيّ أن يكون في خدمة أفضل الإمكانات البشريّة وأسمى تطلّعاتنا، لا أن يتنافس معها.

إنَّ الذّكاء الاصطناعيّ القائم، بأشكاله المتعدّدة، على تقنيّات التّعلّم التّلقائي، على الرّغم من أنّه لا يزال في المرحلة الإبداعيّة، إلّا أنّه قد بدأ يُدخل تغييرات ملحوظة في نسيج المجتمعات، ويُمارس تأثيرًا عميقًا على الثّقافات والتّصرّفات الاجتماعيّة وبناء السّلام. فالتّطورات مثل التّعلّم الآليّ أو التّعلّم العميق تطرح أسئلة تفوق مجالات التّكنولوجيا والهندسة، وتتعلّق بفهم يرتبط ارتباطًا وثيقًا بمعنى الحياة البشريّة وعمليّات المعرفة الأساسيّة وقدرة العقل على بلوغ الحقيقة. إنَّ قدرة بعض الأجهزة على إنتاج نصوص متماسكة ومتناسقة من حيث المعنى، على سبيل المثال، ليس ضمانًا لكي نثق بها. يقال إنّها تستطيع أن "تُبهِر"، أيّ أن تخلق عبارات تبدو للوهلة الأولى معقولة، ولكنّها في الواقع لا أساس لها من الصّحّة أو تشير إلى تحيّزات. وهذا الأمر يطرح مشكلة خطيرة عندما يُستخدَم الذّكاء الاصطناعيّ في حملات التّضليل الّتي تنشر أخبارًا مزيّفة وتؤدّي إلى عدم ثقة متزايد إزاء وسائل الإعلام. كذلك تشكّل السّرّيّة وحيازة البيانات والملكيّة الفكريّة مجالات أخرى تشكّل فيها هذه التّكنولوجيّات مخاطر جسيمة، يضاف إليها المزيد من العواقب السّلبيّة المرتبطة باستخدامها بصورة غير سليمة، مثل التّمييز، والتّدخّل في العمليّات الانتخابيّة، وانتشار مجتمعات تراقب الأشخاص وتتحكّم بهم، الاستبعاد والتّهميش الرّقميّ، وتفاقم نزعة فرديّة أكثر انفصالًا عن الجماعة. جميع هذه العوامل تهدّد بتغذية الصّراعات وعرقلة السّلام.

إنَّ عالمنا واسع جدًّا، ومتنوّع ومعقّد لكي نعرفه معرفة كاملة ونصنّفه. وبالتّالي فإنّ العقل البشريّ لن يتمكنَّ أبدًا من أن يستنفد غناه، ولا حتّى بمساعدة أكثر الخوارزميّات تقدّمًا. إنَّ هذه الخوارزميّات في الواقع، لا تقدّم لنا توقّعات مضمونة حول المستقبل، وإنّما مجرّد إحصائيّات تقريبيّة فقط. لا يمكننا التنبُّؤ بكلّ شيء، كما لا يمكننا أيضًا أن نحسب كلّ شيء، لأنّ الواقع في النّهاية هو أسمى من الفكرة، ومهما كانت قدرتنا الحسابيّة هائلة، سيكون هناك دائمًا بقايا يتعذّر الوصول إليها وتفلت من أيّ محاولة للقياس. كذلك، فإنّ كمّيّة البيانات الكبيرة الّتي يحلّلها الذّكاء الاصطناعيّ لا تشكّل بحدِّ ذاتها ضمانة للحياديّة. عندما تقوم الخوارزميّات باستقراء المعلومات، هي تخاطر دائمًا بتشويهها، وتعيد تكرار أشكال الظّلم والأحكام المسبقة في البيئات الّتي تنشأ فيها. وكلّما أصبحت أكثر سرعة وتعقيدًا، كلّما أصبح أكثر صعوبة لنا أن نفهم سبب إنتاجها لنتيجة معينة. يمكن للآلات الذّكيّة أن تؤدّي المَهام الموكلة إليها بكفاءة كبيرة، ولكن الإنسان الّذي يملك عالمه الخاصّ من القيم هو الّذي سيستمرّ في تحديد وتفعيل الهدف والمعنى لعمليّاتها. يكمن الخطر في أنّ تصبح المعايير لبعض الخيارات أقلّ وضوحًا، وأن تغيب المسؤوليّة في اتّخاذ القرار، وأن يتهرّب المنتجون من التزام العمل من أجل خير الجماعة. بمعنى ما، يعزّز هذه الإمكانيّة النّظام التّكنوقراطيّ، الّذي يربط الاقتصاد والتّكنولوجيا، ويفضِّل معيار الفعّاليّة في الإنتاج، فيما يميل إلى تجاهُل كلّ ما لا يرتبط بمصالحه المباشرة. وبالتّالي على هذا الأمر أن يجعلنا نفكّر في جانبٍ كثيرًا ما نُهمله في العقليّة التّكنوقراطيّة والموجّهة نحو الكفاءة، لأنّه أمر حاسم للتّنمية الشّخصيّة والاجتماعيّة: "الإحساس بالحدود". إنَّ الإنسان، في الواقع، الّذي هو كائنٌ فانٍ بتعريفه، إذ يفكّر في تجاوز جميع الحدود بفضل التّكنولوجيا، يخاطر، في هَوَسِه لإخضاع كلّ شيء لسيطرته بأن يفقد السّيطرة على نفسه، وفي بحثه عن الحرّيّة المطلقة بأن يسقط في دوّامة ديكتاتوريّة تكنولوجيّة. إنَّ الاعتراف بحدودنا كخليقة وقبولها، هو شرط لا غِنَى عنه للإنسان لكي يحقّق، أو بالأحرى، لكي يقبل الكمال كعطيّة. أمّا في السّياق الإيديولوجيّ للنّموذج التّكنوقراطي، الّذي يحرّكه الافتراض البروميثوسيّ للاكتفاء الذّاتيّ، من الممكن أن تتّسع فجوة التّفاوت بشكل كبير، وأن تتراكم المعرفة والغنى في أيدي أقلّيّة من النّاس، فتتسبّب بمخاطر جسيمة للمجتمعات الدّيمقراطيّة والتّعايش السّلميّ.

في المستقبل، سيكون من الممكن أن تحدّد أنظمة الذّكاء الاصطناعيّ مصداقيّة الشّخص الّذي يتقدّم بطلب للحصول على قرض ماليّ، أو مدى ملاءمة فرد ما لوظيفة ما، أو إمكانيّة أن يعاود مجرم ما ارتكاب جرائمه، أو الحقّ في الحصول على اللّجوء السّياسيّ أو المساعدة الاجتماعيّة. إنّ غياب مستويات الوساطة المتنوّعة الّتي تقدّمها هذه الأنظمة يتعرّض بشكل خاصّ لأشكال من التّحيّز والتّمييز: يمكن أن تتضاعف الأخطاء المنهجيّة بسهولة، وأن تؤدِّيَ ليس فقط إلى الظّلم في حالات فرديّة، وإنّما أيضًا، ومن خلال تأثير الدّومينو، إلى أشكال حقيقيّة من عدم المساواة الاجتماعيّة. كذلك، تبدو أشكال الذكاء الاصطناعيّ في بعض الأحيان قادرة على التّأثير على قرارات الأفراد من خلال خيارات محدّدة سلفًا مرتبطة بالمحفّزات والإقناع، أو من خلال أنظمة تنظيم الاختيارات الشّخصيّة القائمة على تنظيم المعلومات. تتطلّب هذه الأشكال من التّلاعب أو السّيطرة الاجتماعيّة اهتمامًا وإشرافًا دقيقين، وتتضمّن مسؤوليّة قانونيّة واضحة من جانب المنتجين والّذين يستخدمونها والسّلطات الحكوميّة.

يمكن للاتّكال على العمليّات التّلقائيّة الّتي تصنّف الأفراد، على سبيل المثال من خلال الاستخدام الواسع النّطاق للمراقبة أو تبنّي أنظمة الائتمان الاجتماعيّ، أن يكون له أيضًا تداعيات عميقة على النّسيج المدنيّ، وأن يؤدّي إلى تصنيفات غير لائقة بين المواطنين. ومن الممكن أن تؤدّي عمليّات التّصنيف المصطنعة هذه أيضًا إلى صراعات على السّلطة، لا تطال فقط المتلقّين الافتراضيّين، وإنّما الأشخاص الحقيقيّين أيضًا. إنّ الاحترام الأساسيّ للكرامة البشريّة يتضمّن رفض تحديد فرادة الشّخص البشريّ من خلال مجموعة من البيانات. لا يجب أن نسمح للخوارزميّات أن تحدِّد كيفيّة فهمنا لحقوق الإنسان، أو أن تضع جانبًا القيم الأساسيّة للشّفقة والرّحمة والتّسامح، أو أن تقضي على إمكانيّة الفرد على أن يتغيَّر ويترك الماضي خلفه. وفي هذا السّياق، لا يمكننا إلّا أن نأخذ في عين الاعتبار تأثير التّكنولوجيّات الجديدة في مجال العمل: فالمهام الّتي كانت في الماضي حكرًا على اليد العاملة البشريّة بدأت تنصهر بسرعة في التّطبيقات الصّناعيّة للذّكاء الاصطناعيّ. وحتّى في هذه الحالة، هناك الخطر الجوهريّ لميزة غير متناسبة لعدد قليل من الأشخاص على حساب إفقار الكثيرين. على احترام كرامة العمّال وأهمّيّة العمل من أجل الرّفاه الاقتصاديّ للأفراد والعائلات والمجتمعات، والأمن الوظيفيّ والأجور العادلة، أن يشكّلوا أولويّة عالية للمجتمع الدّوليّ، في حين أنّ أشكال التّكنولوجيا هذه تتغلغل بشكل أعمق في أماكن العمل.

في هذه الأيّام، وبالنّظر إلى العالم الّذي يحيط بنا، لا يمكننا أن نهرب من القضايا الأخلاقيّة الخطيرة المتعلّقة بقطاع التّسلّح. لقد أدّت إمكانيّة إجراء عمليّات عسكريّة من خلال أنظمة التّحكّم عن بعد إلى تصوّر أقلّ للدّمار الّذي تسبّبه هذه الأنظمة ولمسؤوليّة استخدامها، وساهمت في اتّباع نهج أكثر برودة وأكثر انفصالًا عن مأساة الحرب الهائلة. إنّ البحث حول التّقنيّات النّاشئة في قطاع ما يسمّى "أنظمة الأسلحة الفتّاكة المستقلّة"، بما في ذلك استخدام الذّكاء الاصطناعيّ في الحرب، يشكّل سببًا خطيرًا للقلق الأخلاقيّ. لا يمكن لأنظمة الأسلحة المستقلّة أن تكون أبدًا أشخاصًا مسؤولين أخلاقيًّا: لأنّ القدرة البشريّة الحصريّة على الحكم الأخلاقيّ وعلى اتّخاذ القرار الأخلاقيّ هي أكثر من مجرّد مجموعة معقّدة من الخوارزميّات، ولا يمكن اختزال هذه القدرة إلى برمجة آلة ما، تبقى آلة، على الرّغم من كونها "ذكيّة". ولهذا السّبب، من الضّروريّ أن نضمن رقابة بشريّة ملائمة ومعنويّة ومتماسكة لأنظمة الأسلحة. لا يمكننا أن نتجاهل حتّى إمكانيّة وقوع أسلحة متطوّرة في الأيدي الخاطئة، ونسهّل على سبيل المثال الهجمات الإرهابيّة أو التّدخّلات الّتي تهدف إلى زعزعة استقرار المؤسّسات الحكوميّة الشّرعيّة. بإختصار، إنّ العالم لا يحتاج حقًّا إلى تقنيّات جديدة تساهم في التطوير غير العادل لسوق الأسلحة وتجارتها، وتعزِّز جنون الحرب. وبهذه الطّريقة، لن يتعرّض الذّكاء وحده لخطر أن يصبح أكثر "اصطناعيًّا"، بل قلب الإنسان نفسه. كذلك لا ينبغي استخدام التّطبيقات التّقنيّة الأكثر تقدّمًا من أجل تسهيل الحلّ العنيف للصّراعات، وإنّما لتمهيد دروب السّلام. ومن منظور أكثر إيجابيّة، إذا تمّ استخدام الذّكاء الاصطناعيّ لتعزيز التّنمية البشريّة المتكاملة، فسيتمكّن من أن يدخل ابتكارات مهمّة في الزّراعة والتّعليم والثّقافة، وتحسين مستوى معيشة أمم وشعوب بأكملها، ونموّ الأخوّة الإنسانيّة والصّداقة الاجتماعيّة. وفي النّهاية، ستشكّل الطريقة الّتي نستخدم فيها الذّكاء الاجتماعيّ من أجل إدماج الأخيرين، أيّ الإخوة والأخوات الأشدَّ ضعفًا والمعوزين، المقياس الكاشف لإنسانيّتنا. إنّ النّظرة الإنسانيّة والرّغبة في مستقبل أفضل لعالمنا تؤدّيان إلى الحاجة إلى حوار متعدّد التّخصصات يهدف إلى تطوير أخلاقيّ للخوارزميّات- أخلاقيّات الخوارزميّات- توجّه فيه القيم مسارات التّقنيّات الجديدة. كذلك يجب أن تؤخذ القضايا الأخلاقيّة في عين الاعتبار منذ بداية البحث، وكذلك في مراحل الاختبار والتّصميم والتصنيع والتّوزيع والتّسويق. هذا هو النّهج الأخلاقيّ للتّصميم، والّذي تلعب فيه المؤسّسات التّربويّة وصنّاع القرار دورًا أساسيًّا.

إنّ تطوير تكنولوجيا تحترم وتخدم الكرامة البشريّة له آثار واضحة على المؤسّسات التّربويّة وعالم الثّقافة. ومن خلال مضاعفة إمكانيّات الاتّصال، أتاحت التّكنولوجيّات الرّقميّة اللّقاء بطرق جديدة. ومع ذلك، تبقى هناك ضرورة تأمّل مستمرّ حول نوع العلاقات الّتي توجّهنا نحوها. وبالتّالي ينمو الشّباب في بيئات ثقافيّة تسود فيها التّكنولوجيا، وهذا الأمر لا يمكنه إلّا أن يثير تساؤلات حول أساليب التّعليم والتّنشئة. على التّربية على استخدام أشكال الذّكاء الاصطناعيّ أن تهدف بشكل خاصّ إلى تعزيز الفكر النّقديّ. ومن الأهمّيّة بمكان أن يُطوِّر المستخدمون من جميع الأعمار، ولاسيّما الشّباب، قدرة على التّمييز في استخدام البيانات والمحتوى الّذي يتمّ جمعه على الإنترنت أو الّذي تنتجه أنظمة الذّكاء الاصطناعيّ. وبالتّالي تدعى المدارس والجامعات والجمعيّات العلميّة لكي تساعد الطّلّاب والمهنيّين على تبنّي الجوانب الاجتماعيّة والأخلاقيّة لتطوير واستخدام التّكنولوجيا. كذلك على التّنشئة على استخدام أدوات الاتّصال الجديدة أن تأخذ في عين الاعتبار لا المعلومات الخاطئة والأخبار المزيّفة وحسب، وإنّما أيضًا الظّهور المقلق لـ"مخاوف متوارثة عرفت كيف تختبئ وتعزّز نفسها خلف تكنولوجيّات جديدة". ولسوء الحظّ، نجد أنفسنا مرّة أخرى مضطرّين إلى محاربة "تجربة خلق ثقافة الجدران، ورفع الجدران لمنع اللّقاء مع الثّقافات الأخرى، ومع أشخاص آخرين" وتنمية التّعايش السّلميّ والأخويّ.

إنّ الانتشار العالمي للذكاء الاصطناعيّ يوضح أنه إلى جانب مسؤوليّة الدّول ذات السّيادة في تنظيم استخدامه داخليَّا، يمكن للمنظّمات الدّوليّة أن تلعب دورًا حاسمًا في التّوصّل إلى اتّفاقيّات متعدّدة الأطراف وتنسيق تطبيقها وتنفيذها. وفي هذا الصّدد، أحثّ مجتمع الأمم على العمل معًا من أجل تبنّي معاهدة دوليّة ملزمة، تنظم تطوير واستخدام الذّكاء الاصطناعيّ بأشكاله المتعدّدة. وبطبيعة الحال، لا ينبغي أن يكون الهدف من التّنظيم منع الممارسات السّيّئة فحسب، بل ينبغي أن يكون أيضًا تشجيع الممارسات الجيّدة، وتحفيز الأساليب الجديدة والإبداعيّة، وتسهيل المبادرات الشّخصيّة والجماعيّة. وفي نهاية المطاف، في البحث عن النّماذج التّنظيميّة الّتي يمكنها أن تؤمِّن دليلاً أخلاقيًّا لمطوّري التّكنولوجيّات الرّقميّة، من الضّروريّ تحديد القيم البشريّة الّتي يجب أن تكون في أساس التزام المجتمعات في صياغة واعتماد وتطبيق الأطر التّشريعيّة اللّازمة. وبالتّالي لا يمكن للعمل على صياغة مبادئ توجيهيّة أخلاقيّة لإنتاج أشكال الذّكاء الاصطناعيّ أن يتجاهل النّظر في أسئلة أعمق تتعلّق بمعنى الوجود البشريّ، وحماية حقوق الإنسان الأساسيّة، والسّعي لتحقيق العدالة والسّلام. يمكن لعمليّة التّمييز الأخلاقيّ والقانونيّ هذه أن تكون فرصة ثمينة لتأمُّل مشترك حول الدّور الّذي يجب أن تلعبه التّكنولوجيا في حياتنا الفردية والجماعيّة وحول كيفيّة مساهمة استخدامها في خلق عالم أكثر إنصافًا وإنسانيّة. ولهذا السّبب، في المناقشات حول تنظيم الذّكاء الاصطناعيّ، ينبغي أن تؤخذ في عين الاعتبار أصوات جميع الأطراف المعنيّة، بما في ذلك الفقراء والمهمّشين وغيرهم ممن غالبًا ما لا يتمُّ الإصغاء إليهم في عمليّات صنع القرار العالميّة.

آمل أن يشجّعنا هذا التّأمّل على أن نجتهد لكي يخدم التّقدّم في تطوير أشكال الذّكاء الاصطناعيّ في نهاية المطاف قضيّة الأخوّة الإنسانيّة والسّلام. إنّها ليست مسؤوليّة أقلّيّة من النّاس، وإنّما مسؤوليّة العائلة البشريّة بأسرها. إنّ السّلام، في الواقع، هو ثمرة العلاقات الّتي تعترف بالآخر وتقبله في كرامته غير القابلة للتّصرّف، والتّعاون والالتزام في البحث عن التّنمية المتكاملة لجميع الأشخاص وجميع الشّعوب. إنّ صلاتي في بداية العام الجديد هي ألّا يزيد التّطوّر السّريع لأشكال الذّكاء الاصطناعيّ من أشكال عدم المساواة والظّلم الكثيرة الموجود في العالم، بل أن يساهم في وضع حدّ للحروب والصّراعات، والتّخفيف من العديد من أشكال الألم الّتي تعاني منها العائلة البشريّة. ليتمكّن المؤمنون المسيحيّون والمؤمنون من مختلف الدّيانات والرّجال والنّساء ذوي الإرادة الصّالحة أن يتعاونوا في انسجام لاغتنام الفرص ومواجهة التّحدّيات الّتي تفرضها الثّورة الرّقميّة، ويسلِّموا الأجيال القادمة عالمًا أكثر تضامنًا وعدالة وسلامًا."