العدد : ١٥٠٦٠ - الاثنين ١٧ يونيو ٢٠١٩ م، الموافق ١٤ شوّال ١٤٤٠هـ

العدد : ١٥٠٦٠ - الاثنين ١٧ يونيو ٢٠١٩ م، الموافق ١٤ شوّال ١٤٤٠هـ

المال و الاقتصاد

75% من الشركات ستستعين بخبراء تحليل السلوك عبر الذكاء الاصطناعي بحلول عام 2023

الأربعاء ١٢ يونيو ٢٠١٩ - 01:00

ظهرت في الآونة الأخيرة أزمة ثقة لدى المستخدمين تجاه حلول الذكاء الاصطناعي وتعلّم الآلات، وذلك نتيجة استمرار ظهور حوادث انتهاك الخصوصية وإساءة التعامل مع البيانات. وعلى الرغم من تصاعد ظهور قيود مشددة من قبل الجهات التنظيمية للحد من هذه الحوادث، إلّا أن جارتنر تتوقع أن تقوم 75% من الشركات الكبرى بتعيين خبراء تحليل السلوك عبر الذكاء الاصطناعي لحماية الخصوصية وتعزيز ثقة المستخدمين بهدف الحد من الحوادث التي تؤدي إلى إلحاق الضرر بسمعتها أو علامتها التجارية.

تشكل حالات الانحياز تجاه العرق، أو الجنس، أو العمر، أو الموقع الجغرافي والانحياز تجاه مجموعة معيّنة من البيانات من القضايا والمخاطر التي لطالما شابت نماذج تدريب الذكاء الاصطناعي. هذا إلى جانب تلك الخوارزميات المبهمة كتلك المستخدمة في التعلّم المعمق للآلات حيث تخفي الكثير من التفاعلات المستترة والمتبدلة والتي تنتهي على شكل تنبؤات للذكاء الاصطناعي يصعب ترجمتها وفهمها.

وقال جيم هير، نائب الرئيس للأبحاث في جارتنر: «هناك حاجة ملحّة إلى أدوات ومهارات جديدة لمساعدة الشركات على الكشف عن مصادر حالات الانحياز تلك وغيرها، وبالتالي بناء الثقة في استخدامات نماذج الذكاء الاصطناعي والحد من المخاطر على سمعة وسلوك الشركة وعلامتها التجارية». وأردف السيد هير قائلا: «هناك زيادة في أعداد مدراء البيانات وتحليلها والرؤساء التنفيذيين لإدارة البيانات ممن يعملون على تعيين خبراء استقصائيين لحوادث الذكاء الاصطناعي والمحققين المتخصصين في السلوكيات الانضباطية».

تتزايد الحالات التي تقوم فيها قطاعات مثل القطاع المالي وقطاع تقنية المعلومات بنشر حزم من وسائل إدارة المخاطر وحوكمة الذكاء الاصطناعي وغيرها من التكتيكات الساعية إلى إدارة المخاطر المرتبطة بالسمعة والحماية. كما أن عددا من المؤسسات الكبرى مثل فيسبوك وجوجل وبنك أوف أمريكا وناسا عملت بالفعل على تعيين متخصصين في استقصاء سلوكيات الذكاء الاصطناعي أو أنها في طور تعيينهم. على أن يكون الدور الرئيسي لهؤلاء هو الكشف عن حالات الانحياز غير المرغوبة في نماذج الذكاء الاصطناعي قبل أن يتم نشرها واستخدامها.

تنضوي مهمة هؤلاء المتخصصين على اختبار النماذج خلال مراحل تطويرها، ثم الاستمرار في مراقبتها بُعيد نشرها وبدء العمل بها، سيّما أن حالات الانحياز عادة ما تظهر نتيجة التباين ما بين البيانات المنبثقة عن عملية التدريب من جهة والعالم الحقيقي من جهة أخرى.

وفي هذا الإطار قال هير: «ربما لا تزال أعداد الشركات التي تعمل اليوم على الاستعانة بخبراء استقصائيين لحوادث تعلّم الآلات والمحققين المتخصصين في السلوكيات الانضباطية متواضعة، إلّا أن أعدادها ستشهد تزايدًا على نحو متسارع في السنوات الخمس القادمة».

ستعمل الجهات المزوّدة للخدمات الاستشارية على عدد من الخدمات الجديدة لتوفير مزايا الرقابة والتأكد من أن نماذج تعلّم الآلات واضحة وقابلة للشرح وتتوافق مع المعايير الموضوعة قبل انتقالها إلى مرحلة التشغيل. ومن ناحية أخرى، ستظهر أدوات جديدة منها ما يكون مفتوح المصدر ومنها التجاري وسيتم تصميمها بهدف مساعدة المحققين المتخصصين في الحوادث المرتبطة بتعلّم الآلات على كشف حالات الانحياز والحد من ظهورها. عملت بعض المؤسسات على إطلاق أدوات توضيحية للذكاء الاصطناعي تهدف إلى مساعدة عملائها على إصلاح الأخطاء المتمثلة في حالات الانحياز في خوارزميات الذكاء الاصطناعي. وتعمل الشركات المزوّدة لمنصات الذكاء الاصطناعي وتعلّم الآلات بإضافة إمكانيات من شأنها أتمتة عملية توليد شروحات توضيحية للنماذج باللغة الطبيعية. كما أن هناك تقنيات صاعدة مفتوحة المصدر، مثل تقنية توليد الشروحات التوضيحية لكل النماذج LIME والتي من شأنها أن تكشف عن حالات التمييز والانحياز الخاطئة قبل أن تجد طريقها إلى النماذج.

من شأن هذه الأدوات وغيرها أن تمكّن محققي مشاكل تعلّم الآلات من الوقوف على تأثيرات العناصر المتغيرة الحسّاسة - مثل العمر والجنس والعرق على البيانات المرتبطة بالعناصر المتغيرة الأخرى في نموذج معين. ووفقًا للسيد هير: «من شأن هذه الأدوات أن تقيس مدى التوافق ما بين المتغيرات بغية التحقق من تأثير ذلك على النموذج ومخرجاته». ما من شك أن المدراء المسؤولين عن البيانات وتحليلها والرؤساء التنفيذيين لإدارة البيانات يفتقرون إلى المناعة اللازمة ضد المشكلات المتعلقة بغياب الحوكمة والحوادث المرتبطة بقصور الذكاء الاصطناعي. وقال السيد هير: «ينبغي على هؤلاء المدراء التعامل مع الحوكمة والانضباط على أنها جزء من مبادرات الذكاء الاصطناعي، والعمل على بناء ثقافة تُبنى على الاستخدام المسؤول والثقة والشفافية. وفي هذا الإطار تعد خطوة تحقيق التنويع في فرق عمل الذكاء الاصطناعي والبيانات والخوارزميات والترويج لمهارات العاملين بداية جيدة». وأضاف: «على المدراء المسؤولين عن البيانات وتحليلها وضع خطط لضمان تحمّل المسؤولية والمحاسبة وذلك لتحديد مستويات الثقة والشفافية للبيانات والخوارزميات والمخرجات لكل نموذج وضمان تطبيقها. 

كلمات دالة

هل ترغب بالتعليق على الموضوع؟

لا تتردد في إعطاء تعليقك ومشاركة رأيك

الاسم:
النص:
تبقى لديك (600حرف

aak_news