أفادت الدكتورة مديحة حقيق أستاذة باحثة بالمعهد العالي للهندسة والأعمال ISGA الدارالبيضاء، أن الذكاء الاصطناعي، أصبح مما لا شكّ فيه الشغل الشاغل لغالبية دول العالم (من بينها المغرب الذي يتجه إلى إحداث مدن ذكية في المستقبل)، لإدراكها أن العالم يتجه نحو حقبة جديدة من التكنولوجيا، ستغيّر حياة البشرية والطريقة التي تعيش وتعمل بها في عدد كبير من المجالات والقطاعات المختلفة، مع الإقرار في نفس الوقت بأن مخاطر هذه التوجه لا تزال مجهولة أيضًا.
وأضافت حقيق في مقال مطول، توصل موقع “إحاطة.ما” بنسخة منه، أن العالم دخل فعليًا مرحلة جديدة عنوانها السباق في تكنولوجيا الذكاء الاصطناعي، “لكن إذا لم يتم وضع قواعد ناظمة لهذا السباق، فإنّه قد يخرج عن السيطرة، ويهدد دولا بكاملها؛ لأنه يثير العديد من المخاطر والتهديدات الأمنية والأخلاقية؛ نتيجة الاعتماد المتزايد والمفرط لهذه التقنية التي ستنهي دور الإنسان في إدارة حياته”.
وتابعت حقيق: “الذكاء الاصطناعي هو مجال من مجالات المعلوميات يركز على إنشاء آلات يمكنها أداء المهام التي تتطلب عادة ذكاء بشريا، تتضمن هذه المهام التعرف على الأنماط وحل المشكلات والتعلم والتخطيط واتخاذ القرار وغير ذلك، حيث يهدف الذكاء الاصطناعي إلى محاكاة الطريقة التي يعمل بها الدماغ البشري باستخدام الخوارزميات والنماذج الرياضية لمعالجة البيانات وأداء المهام الإدراكية، يشمل الذكاء الاصطناعي طرق التعلم الآلي والخلايا الاصطناعية والتعلم العميق والمنطق والتحليلات التنبؤية والعديد من التقنيات الأخرى”.
ووفق الاستاذة الباحثة، يستخدم الذكاء الاصطناعي في العديد من المجالات مثل الرعاية الصحية، والتمويل، والنقل، والأمن، والتسويق، والألعاب والروبوتات، والتعرف على الصور والترجمة الآلية والمزيد، ويالتالي نستخلص أن الهدف من الذكاء الاصطناعي هو إنشاء أنظمة ذكية يمكنها أداء المهام بشكل مستقل والتكيف مع السيناريوهات الجديدة دون تدخل بشري.
تحديات ومخاوف
وأوضحت حقيق، أن استخدام الذكاء الاصطناعي، يطرح العديد من التحديات والمخاوف التي يجب معالجتها لضمان تطويره ونشره بطريقة أخلاقية ومسؤولة.
وقدمت حقيق مجموعة التحديات الرئيسية في استخدام الذكاء الاصطناعي، بدأتها بالتحيز والتمييز، مبرزة أنه “يمكن لأنظمة الذكاء الإصطناعي إعادة إنتاج وتضخيم التحيزات في البيانات التي يتم تدريبها عليها، مما قد يؤدي إلى قرارات تمييزية وغير عادلة”.
أما بالنسبة للأمن والخصوصية، أوضحت حقيق أن أنظمة الذكاء الإصطناعي، يمكن أن تكون عرضة للهجوم والتلاعب، ومعالجة كميات كبيرة من البيانات تثير مخاوف تتعلق بالخصوصية وحماية البيانات.
وسجلت حقيق أيضا، أن تحديد المسؤول في حالة الفشل أو الضرر الناجم عن نظام الذكاء الإصطناعي يثير أسئلة قانونية وأخلاقية معقدة.
وأضافت: “هناك أيضا مسألة التأثير على التشغيل فالأتمتة بواسطة الذكاء الإصطناعي يمكن أن تؤدي إلى اضطرابات في سوق العمل واختفاء بعض الوظائف، الأمر الذي يتطلب التفكير في التدريب وإعادة المهارات”.
بالإضافة إلى ذلك، أفادت حقيق أن مفهوم الأخلاق ضروري لأن الذكاء الاصطناعي يثير أسئلة أخلاقية مهمة تتعلق باتخاذ القرارات المستقلة، والخصوصية، والمراقبة، والتلاعب بالرأي العام، وما إلى ذلك.
وشددت حقيق أنه بات من الضروري وضع إطار تنظيمي مناسب لتأطير تطوير واستخدام الذكاء الاصطناعي لضمان امتثالها للمعايير الأخلاقية والقانونية..
وزادت، أنه من خلال معالجة هذه التحديات بشكل استباقي، يمكن لمجتمع الذكاء الإصطناعي العمل على تطوير أنظمة أكثر إنصافا وشفافية وأمنا وخضوعا للمساءلة من شأنها أن تفيد المجتمع ككل.
وللتغلب على التحديات التي يواجهها الذكاء الإصطناعي، أكدت حقيق أنه لا بد من مراعاة عدة جوانب، إذ نصحت بتحسين جودة البيانات “لأن الذكاء الإصطناعي يعتمد بشكل كبير على البيانات التي يتم تدريبه عليها، لذلك من الضروري ضمان جودة البيانات المستخدمة وتنوعها وتمثيلها زيادة على الشفافية وقابلية التفسير. كذلك من المهم جعل القرارات التي تتخذها أنظمة الذكاء الإصطناعي مفهومة وقابلة للتفسير ، خاصة في المجالات الحساسة مثل الصحة أو العدالة”.
وفيما يخص ضمان الأمن والخصوصية، دعت حقيق إلى أنه يجب تصميم أنظمة الذكاء الإصطناعي بطريقة تضمن أمن البيانات وسريتها، لحماية الخصوصية وتجنب مخاطر القرصنة أو التلاعب، وتشجيع التعاون بين الجهات الفاعلة في الصناعة والباحثين وصانعي السياسات والمجتمع المدني أمرا ضروريا لوضع معايير ولوائح ملائمة للذكاء الإصطناعي.
وتابعت حقيق، إلى أنه من الأهمية بما كان تعزيز الممارسات الأخلاقية والمساءلة في تطوير واستخدام الذكاء الإصطناعي، مع مراعاة الآثار الاجتماعية والاقتصادية والأخلاقية.
وخلصت إلى أنه باتباع هذه التوصيات، من الممكن التغلب على التحديات التي يواجهها الذكاء الإصطناعي وتعزيز تنميته المسؤولة والمفيدة اجتماعيا.