يمكن للذكاء الاصطناعي أن يعمق عدم المساواة الاجتماعية. فيما يلي 5 طرق للمساعدة في منع هذا

Shutterstock

تيبيريو كايتانو، جامعة سيدني وبيل سيمبسون يونغ، جامعة سيدني

من عمليات البحث على Google ومواقع المواعدة إلى اكتشاف الاحتيال على بطاقات الائتمان، يستمر الذكاء الاصطناعي (AI) في إيجاد طرق جديدة للتسلل إلى حياتنا. لكن هل يمكننا الوثوق بالخوارزميات التي تسيره؟

كبشر، نحن نُصنعُ الأخطاءَ. ويمكن أن يكون لدينا ثغرات في الانتباه وإساءة تفسير المعلومات. ومع ذلك، عندما نعيد التقييم، يمكننا تحديد أخطائنا وتصحيحها.

ولكن عندما يرتكب نظام الذكاء الاصطناعي خطأ ما، فإنه سيتم تكراره مراراً وتكراراً بغض النظر عن عدد المرات التي ينظر فيها إلى نفس البيانات في ظل نفس الظروف.

ويجري تدريب الذكاء الاصطناعي النظم باستخدام بيانات تعكس حتماً الماضي. وإذا كانت مجموعة بيانات التدريب تحتوي على تحيزات متأصلة من قرارات بشرية سابقة، فإنه يتم تقنين هذه التحيزات وتضخيمها بواسطة النظام.

أو إذا كانت تحتوي على بيانات أقل عن مجموعة أقلية معينة، فإن التنبؤات لتلك المجموعة ستميل إلى أن تكون أسوأ. وهذا ما يسمى “التحيز الخوارزمي”.

شارك معهد Gradient Institute في تأليف ورقةتوضح كيف يمكن للشركات تحديد التحيز الخوارزمي في أنظمة الذكاء الاصطناعي، وكيف يمكنهم التخفيف منه.

لقد تم إنتاج العمل بالتعاون مع اللجنة الأسترالية لحقوق الإنسان، ومركز أبحاث سياسة المستهلك، و CSIRO’s Data61 ومجموعة CHOICE للدعوة.

كيف ينشأ التحيز الخوارزمي؟

فقد ينشأ التحيز الخوارزمي من خلال نقص بيانات التدريب المناسبة، أو نتيجة تصميم أو تكوين نظام غير مناسب.

على سبيل المثال، عادةً ما يتم تدريب النظام الذي يساعد البنك على تحديد منح قروض من عدمه باستخدام مجموعة كبيرة من البيانات لقرارات القروض السابقة للبنك (والبيانات الأخرى ذات الصلة التي يمكن للبنك الوصول إليها).

فيمكن للنظام مقارنة التاريخ المالي لمقدم طلب القرض الجديد وتاريخ التوظيف والمعلومات الديموغرافية مع المعلومات المقابلة من المتقدمين السابقين. من هذا المنطلق، فإنه يحاول توقع ما إذا كان مقدم الطلب الجديد سيتمكن من سداد القرض.

ولكن هذا النهج يمكن أن يكون إشكالياً. وتتمثل إحدى الطرق التي يمكن أن ينشأ بها تحيز الخوارزميات في هذه الحالة في التحيز اللاواعي من مديري القروض الذين اتخذوا قرارات سابقة بشأن طلبات الرهن العقاري.

وإذا تم رفض قروض العملاء من الأقليات بشكل غير عادل في الماضي، فسوف يعتبر الذكاء الاصطناعي أن قدرة السداد العامة لهذه المجموعات أقل مما هي عليه الآن.

إن الشباب والملونون والنساء العازبات والأشخاص ذوو الإعاقة والعمال ذوو الياقات الزرقاء ليست سوى بعض الأمثلة على المجموعات التي قد تكون محرومة.




إقرأ المزيد:
الذكاء الاصطناعي لديه مشكلة بالتحيز بين الجنسين — فقط اسأل سيري


التحيز يضر بكل من الأفراد والشركات

ويشكل نظام الذكاء الاصطناعي المتحيز الموصوف أعلاه خطرين رئيسيين على البنك.

أولاً، قد يفقد البنك عملاء محتملين، بإرسال ضحايا التحيز إلى منافسيه. كما يمكن تحميلها المسؤولية بموجب قوانين مكافحة التمييز.

وإذا طبق نظام الذكاء الاصطناعي باستمرار التحيز المتأصل في قراراته، يصبح من السهل على الحكومة أو مجموعات المستهلكين تحديد هذا النمط المنهجي. وهذا يمكن أن يؤدي إلى غرامات كبيرة وعقوبات.

التخفيف من تحيز الخوارزميات

تستكشف ورقتنا عدة طرق يمكن أن ينشأ بها التحيز الخوارزمي.

كما أنها توفر إرشادات تقنية حول كيفية إزالة هذا التحيز، حيث تنتج أنظمة الذكاء الاصطناعي نتائج أخلاقية لا تميز بناءً على خصائص مثل العرق أو العمر أو الجنس أو الإعاقة.

بالنسبة إلى ورقتنا البحثية، أجرينا محاكاة لمتاجر تجزئة افتراضية للكهرباء باستخدام أداة تعمل بالذكاء الاصطناعي لتحديد كيفية تقديم المنتجات للعملاء وبأي شروط. وقد تم تدريب المحاكاة على بيانات تاريخية خيالية تتكون من أفراد خياليين.

بناءً على نتائجنا، حددنا خمس طرق لتصحيح التحيز الخوارزمي. يمكن تطبيق مجموعة الأدوات هذه على الشركات عبر مجموعة من القطاعات للمساعدة في ضمان أن تكون أنظمة الذكاء الاصطناعي عادلة ودقيقة.

1. الحصول على بيانات أفضل

ويمكن الحد من خطر التحيز الخوارزمي من خلال الحصول على نقاط بيانات إضافية أو أنواع جديدة من المعلومات عن الأفراد، وخاصة أولئك الذين تم تمثيلهم ناقصاً (الأقليات) أو أولئك الذين قد يظهرون بشكل غير دقيق في البيانات الموجودة.

2. المعالجة المسبقة للبيانات

ويتكون هذا من تحرير مجموعة بيانات لإخفاء أو إزالة معلومات حول السمات المرتبطة بالحماية بموجب قانون مكافحة التمييز، مثل العرق أو الجنس.

3. زيادة تعقيد النموذج

يمكن أن يكون نموذج الذكاء الاصطناعي الأبسط أسهل في الاختبار والمراقبة والاستجواب. لكنها قد تكون أقل دقة وتؤدي إلى تعميمات تفضل الأغلبية على الأقليات.

4. تعديل النظام

يمكن تعديل منطق ومعلمات نظام الذكاء الاصطناعي بشكل استباقي لمواجهة تحيز الخوارزمية بشكل مباشر. على سبيل المثال، يمكن القيام بذلك عن طريق تحديد عتبة قرار مختلفة لمجموعة محرومة.

5. تغيير هدف التنبؤ

حيث يؤثر الإجراء المحدد الذي تم اختياره لتوجيه نظام الذكاء الاصطناعي بشكل مباشر في كيفية اتخاذ القرارات عبر المجموعات المختلفة. وسيساعد العثور على مقياس أكثر عدلاً لاستخدامه كهدف للتنبؤ في تقليل تحيز الخوارزمية.

رسم توضيحي يصور عملية إدخال وإخراج المعلومات عبر الدماغ.
وتعتمد فعالية نظام الذكاء الاصطناعي اعتماداً كبيراً على نوعية البيانات المستخدمة في تدريبه.
Shutterstock

النظر في الشرعية والأخلاق

وفي توصياتنا إلى الحكومة والشركات التي ترغب في استخدام الذكاء الاصطناعي صنع القرار، نؤكد في المقام الأول على أهمية النظر في المبادئ العامة للعدالة وحقوق الإنسان عند استخدام هذه التكنولوجيا. ويجب أن يتم ذلك قبل أن يكون النظام قيد الاستخدام.

ونحن نوصي أيضاً بأن يتم تصميم الأنظمة واختبارها بشكل صارم لضمان عدم تلوث المخرجات بالتحيز الخوارزمي. وبمجرد تشغيلها، يجب مراقبتها عن كثب.

وأخيراً، ننصح بأن استخدام أنظمة الذكاء الاصطناعي بمسؤولية وأخلاقية يتجاوز الامتثال لنصوص القانون الضيق. كما يتطلب أن يكون النظام متوافقاً مع الأعراف الاجتماعية المقبولة على نطاق واسع – ومراعاة التأثير على الأفراد والمجتمعات والبيئة.

ومع انتشار أدوات صنع القرار في مجال الذكاء الاصطناعي، أصبح لدينا الآن فرصة ليس فقط لزيادة الإنتاجية، ولكن أيضًا لإنشاء مجتمع أكثر إنصافاً وعدالة – أي إذا استخدمناها بعناية.




إقرأ المزيد:
قد تؤدي خوارزميات YouTube إلى تطرف الناس – لكن المشكلة الحقيقية هي أننا لا نعرف كيف تعمل


المحادثة


تيبيريو كايتانو، كبير العلماء، معهد التدرج، جامعة سيدني وبيل سيمبسون يونغ،الرئيس التنفيذي لمعهد التدرج، جامعة سيدني

يتم إعادة نشر هذه المقالة من شبكة The Conversation تحت ترخيص المشاع الإبداعي. قراءة المادة الأصلية.

%d مدونون معجبون بهذه: