آي.بي.أم تطلق أداة لمنع تحيز الذكاء الاصطناعي

أعلنت شركة “آي.بي.أم” الأميركية عن أداة لتحليل كيف ولماذا تتخذ الخوارزميات القرارات في الوقت الحقيقي، وذلك بهدف منع الذكاء الاصطناعي من التمييز ضد جماعات معينة مثل النساء والأقليات.

وقالت الشركة إن بإمكان حزمتها “فيرنيس 360 كت” (Fairness 360 Kit) البحث عن علامات تحيز والتوصية بإجراء تعديلات.

ويأتي تطوير هذه الأداة لمواجهة القلق المتزايد بأن الخوارزميات التي تستخدمها شركات التقنية العملاقة والشركات الأخرى لا تكون دائما عادلة في صنع القرار. فعلى سبيل المثال، فشلت في الماضي أنظمة التعرف على الصور في التعرف على وجوه الأشخاص غير البيض.

ونظرا لأن تلك الخوارزميات تتخذ قرارات مؤتمتة بشكل متزايد حول مجموعة واسعة من القضايا مثل التأمين والمعلومات التي يشاهدها الناس على الإنترنت، فإن الآثار المترتبة على توصياتهم تصبح أوسع نطاقا.

وغالبا مع تعمل الخوارزميات ضمن ما يعرف باسم “الصندوق الأسود”، مما يعني أنه لا يمكن لمالكيها رؤية كيف تتخذ هذه الخوارزميات القرارات.

وسيكون برنامج آي.بي.أم السحابي مفتوح المصدر، وسيعمل مع مجموعة متنوعة من الأطر الشائعة الاستخدام لبناء الخوارزميات، وسيتيح للعملاء -عن طريق لوحة بصرية- رؤية كيف تتخذ خوارزمياتهم القرارات والعوامل المستخدمة لتقديم التوصيات النهائية.

إضافة إلى ذلك ستتولى الأداة تتبع سجل دقة النموذج وأدائه، وعدالته مع مرور الوقت.

وقال ديفد كيني نائب الرئيس الأول للحلول المعرفية في آي.بي.أم “نوفر شفافية وتحكما جديدين للشركات التي تستخدم الذكاء الاصطناعي وتواجه مخاطر محتملة من أي عملية صنع قرار خاطئة”.

كما تعمل شركات تقنية أخرى على تطوير حلول لمواجهة تحيز تقنيات الذكاء الاصطناعي، فقد أطلقت غوغل الأسبوع الماضي أداة تدعى “ماذا لو”، مصممة لمساعدة المستخدمين على معرفة كيفية عمل نماذج تعلم الآلة، لكن أداة غوغل لا تعمل في الوقت الحقيقي.

وقالت مايكروسوفت في مايو/أيار الماضي إنها تعمل على مجموعة أدوات لكشف تحيز خوارزميات الذكاء الاصطناعي، بينما قالت فيسبوك إنها تختبر أداة لمساعدتها في تحديد ما إذا كانت خوارزمية معينة متحيزة أم لا.

وتؤكد رئيسة الذكاء الاصطناعي وتعلم الآلة في المنتدى الاقتصادي العالمي كاي فيرث بترفيلد أن الذكاء الاصطناعي يواجه مشكلة تحيز، ويتمثل جزء من المشكلة في أن كميات البيانات الهائلة التي تتدرب الخوارزميات على التعامل معها لا تكون دائما متنوعة بشكل كاف.

وأوضحت بترفيلد في مقابلة حديثة مع قناة “سي.أن.بي.سي” أن حل تلك المشكلة يكون بجعل صناعة التقنية في الغرب “أكثر تنوعا بكثير”، لأن أغلب الذين يعملون على تطوير خوارزميات الذكاء الاصطناعي هم من البيض وبشكل خاص الرجال البيض.

المصدر : مواقع إلكترونية

Add a Comment

Your email address will not be published. Required fields are marked *