أخبارالأرشيفتقاريرمقالات

المشكلات الأخلاقية للذكاء الاصطناعي: “خوض المعارك الصحيحة”

الاستماع للخبر

هل سيحل الذكاء الاصطناعي محل البشر؟ هل سينقلب على صانعيه؟ هل يمثل خطراً على الجنس البشري؟ هذه ليست سوى بعض الأسئلة التي كانت تثير الجدل العام وتحرك وسائل الإعلام منذ انتشار أدوات الذكاء الاصطناعي التوليدية على نطاق واسع والتصريحات المثيرة لبعض الشخصيات العامة.

ومع ذلك، على الرغم من أن هذه الأسئلة مثيرة للاهتمام بنفس قدر أهمية الافتراضات من وجهة نظر فلسفية، إلا أن معظم الخبراء يتفقون على أنها سابقة لأوانها.

صحيح أن للذكاء الاصطناعي إمكانات هائلة، فهو تقنية ستمكّن من أتمتة مجموعة كبيرة من المهام، وخلق خدمات جديدة، وفي نهاية المطاف ستكون الاقتصادات أكثر كفاءة.

يمثل الذكاء الاصطناعي التوليدي مرحلة جديدة في هذا الاتجاه الذي بدأنا للتو في اكتشاف تطبيقاته العديدة.

ومع ذلك، يجب ألا نغفل حقيقة أنه على الرغم من الأداء الرائع لأنظمة الذكاء الاصطناعي، إلا أنها آلات في الأساس، وليست أكثر من خوارزميات مدمجة في معالجات قادرة على استيعاب كميات كبيرة من البيانات.

لقد قيل لنا أن هذه الأدوات الجديدة ستكون قادرة على اجتياز اختبار تورنغ، وعلى الأرجح هذا حقيقي، لكن الاختبار الذي كان يُعتقد سابقاً أنه قادر على رسم الخط الفاصل بين الذكاء البشري والذكاء الاصطناعي لم يعد له أي أهمية حقيقية منذ فترة طويلة.

هذه الآلات غير قادرة على الذكاء البشري، بالمعنى الكامل للمصطلح (أي الحساسية، والتكيف مع السياق، والتعاطف…)، ولا على الانعكاسية والوعي، وربما سيستمر الأمر لفترة طويلة مستقبلاً، ولا يسع المرء إلا أن يفكر في أن أولئك الذين يتخيلون أن هذه الأدوات سرعان ما ستمتلك تلك الخصائص، قد تأثروا بشكل مفرط بالخيال العلمي والشخصيات الأسطورية مثل بروميثيوس أو غولم، والتي طالما كانت تتميز بما يسحرنا.

إذا اتخذنا وجهة نظر أكثر واقعية، فإننا سندرك أن الأسئلة الأخلاقية التي أثارتها الأهمية المتزايدة للذكاء الاصطناعي ليست بجديدة، وأن ظهور ChatGPT والأدوات الأخرى جعل هذه الأسئلة ببساطة أكثر إلحاحاً.

وبصرف النظر عن موضوع التوظيف، من ناحية؛ تتطرق هذه الأسئلة إلى التمييز الذي أحدثه الذكاء الاصطناعي أو زاد من حجمه، وبيانات تدريب الخوارزميات التي يستخدمها، ومن ناحية أخرى، نشر المعلومات المضللة (إما عن عمد أو نتيجة لـ “هلوسة الذكاء الاصطناعي”).

ومع ذلك، لطالما كان هذان الموضوعان مصدر قلق لباحثي الخوارزميات والمشرعين والشركات العاملة في هذا المجال، وقد بدأوا بالفعل في تنفيذ الحلول التقنية والقانونية لمواجهة المخاطر.

دعونا نلقي نظرة أولاً على الحلول التقنية، يتم دمج المبادئ الأخلاقية في تطوير أدوات الذكاء الاصطناعي.

وفي تاليس، التزمنا منذ بعض الوقت بعدم بناء “الصناديق السوداء” عند تصميم أنظمة ذكاء اصطناعي، لقد وضعنا إرشادات تضمن أن الأنظمة شفافة وقابلة للتفسير، كما أننا نسعى إلى تقليل التحيز (لا سيما فيما يتعلق بالنوع والمظهر الجسدي) في تصميم خوارزمياتنا، من خلال بيانات تدريب الخوارزميات التي نستخدمها وتشكيل فرقنا.

ثانياً: الحلول القانونية؛ وهنا، تولى الاتحاد الأوروبي القيادة بلا شك. تعمل المفوضية الأوروبية والبرلمان الأوروبي منذ أكثر من عامين على مشروع قانون يهدف بموجب القانون إلى الحد من استخدامات الذكاء الاصطناعي الأكثر خطورة.

ومع ذلك، لن ننجح في تلافي المخاطر الكامنة في إساءة استخدام الذكاء الاصطناعي إلا من خلال التعليم والتغيير المجتمعي الحقيقي، يجب أن ننجح سوياً في إخراج أنفسنا من ثقافة “الفورية” التي ازدهرت مع ظهور التكنولوجيا الرقمية، والتي من المرجح أن تزيد بسبب الانتشار الهائل لهذه الأدوات الجديدة.

كما نعلم، يتيح الذكاء الاصطناعي التوليدي إنتاج محتوى سريع الانتشار ويتم إنتاجه بسرعة بالغة، ولكنه ليس بالضرورة محتوى موثوق، وهناك خطر تضخيم عيوب كيفية عمل وسائل التواصل الاجتماعي، لا سيما في ترويجها لمحتوى مشكوك فيه ويتسبب في الخلاف، والطريقة التي تثير بها ردود الفعل والمواجهة على الفور.

علاوة على ذلك، من خلال تعودنا على الحصول على إجابات “جاهزة للاستخدام”، دون الحاجة إلى البحث أو التحقق أو مقارنة المصادر بمصادر أخرى، تجعلنا هذه الأنظمة كسالى فكرياً، وهي تجازف بالتسبب في تفاقم الوضع من خلال إضعاف تفكيرنا النقدي.

وعلى الرغم من أنه سيكون من غير المعقول أن نبدأ في أن ننذر بوجود خطر وجودي على الجنس البشري، إلا أننا في حاجة إلى إطلاق تحذير؛ ويجب أن نبحث عن طرق لوضع حد لهذا الميل الضار للفورية التي كانت تلوث الديمقراطية وتخلق أرضية خصبة لنظريات المؤامرة لما يقرب من عقدين من الزمن.

“فكر في الأمر لمدة 30 ثانية” هذا هو العنوان الرائع لدورة تدريبية نظمها مركز كيبيك للتعليم في مجال الإعلام والمعلومات، فاستغراق الوقت الكافي لوضع المحتوى في سياقه وتقييم مدى موثوقيته وإجراء حوار بناء بدلاً من التفاعل الفوري، هو اللبنة الأساسية لحياة رقمية صحية. نحن بحاجة إلى التأكد من أن تدريس هذه الأنظمة نظرياً وتطبيقياً يمثل أولوية مطلقة في أنظمة التعليم في جميع أنحاء العالم.

إذا واجهنا هذا التحدي، فسنكون قادرين في النهاية على الاستفادة من الإمكانات الهائلة التي تتمتع بها هذه التكنولوجيا لتطوير العلوم والطب والإنتاجية والتعليم.


كاتب هذه المقالة هو: “باتريس كين- 53 عاماً”، الرئيس التنفيذى والمدير العام لمجموعة “تاليس” منذ ديسمبر 2014، رئيس لجنة الترشيحات والحوكمة وعضو لجنة الاستراتيجية والاستدامة.

بعد أن شغل مناصب إدارية في وحدات تشغيل مختلفة (الطيران والبحرية، والاتصالات، والملاحة وتحديد الهوية، والأنظمة الجوية، ومنتجات الاتصالات اللاسلكية، والشبكات وأنظمة البنية التحتية وأنظمة الحماية) من عام 2002 إلى عام 2013. 

جدير بالذكر أن مجموعة تاليس الفرنسية هي مجموعة متعددة الجنسيات، وتعمل الشركة في تصميم وبناء الأنظمة الكهربائية وتوفير الخدمات لأسواق للطيران والدفاع والنقل والأمن.

تأسست مجموعة تاليس الفرنسية في 6 ديسمبر 2000، ويقع مقرها الرئيسي في نويي-سور-سين، ويتم سرد أسهمها في بورصة يورونكست باريس، الشركة غيرت اسمها من طومسون-CSF إلى شركة تاليس في ديسمبرمن العام 2000. تتواجد تاليس في مصر منذ عام 1973، حيث تزود العملاء بقدرات في مجالات الدفاع والنقل والفضاء والفضاء والهوية الرقمية والأمن، وتتمثل رؤية المجموعة في المساهمة في تطوير الأمن والنمو في الدولة، مع دعم سيادة الدولة والتنمية الاقتصادية المستدامة وتنمية المواهب المحلية، يتم تعزيز ذلك من خلال التعاون المحلي المستمر بين تاليس والدولة المصرية.