حذّرت أبحاث حديثة من أن اعتماد أدوات الذكاء الاصطناعي في القطاع الطبي قد يؤدي إلى نتائج صحية أقل كفاءة للنساء والأقليات العرقية، نتيجة لانعكاس التحيزات الموجودة في بيانات التدريب على هذه النماذج.
وأظهرت دراسات أجرتها جامعات أمريكية وبريطانية بارزة أن بعض النماذج اللغوية الموسعة (LLMs) تميل إلى التقليل من شدة أعراض النساء مقارنة بالرجال، فيما تقدم استجابات أقل تعاطفاً مع المرضى من ذوي الأصول الإفريقية والآسيوية، خصوصاً في حالات الدعم النفسي، وفقاً لصحيفة "فاينانشيال تايمز".
وتزامنت التحذيرات مع إسراع شركات التكنولوجيا الكبرى مثل "مايكروسوفت" و"جوجل" و"أمازون" و"أوبن إيه آي" لتطوير تطبيقات تستهدف تخفيف الأعباء عن الأطباء وتسريع التشخيص والعلاج في أنظمة صحية تعاني ضغوطاً متزايدة.
الدراسات وجدت أيضاً أن المرضى الذين يستخدمون لغة غير رسمية أو يكتبون برسائل تحوي أخطاء إملائية كانوا أكثر عرضة لتلقي نصائح تقلل من الحاجة إلى مراجعة الطبيب، حتى مع تطابق الأعراض مع مرضى آخرين صاغوا رسائلهم بشكل صحيح.
وأثارت هذه الملاحظة مخاوف من تعرض غير الناطقين بالإنجليزية أو الأقل إلماماً بالتكنولوجيا إلى تمييز غير مباشر، ويرى الباحثون أن المشكلة إجمالاً تعود بالأساس إلى طبيعة البيانات المستخدمة في تدريب النماذج، والتي غالباً ما تأتي من الإنترنت وتعكس تحيزاته.
كن أول من يعلق على الخبر
تحليل التعليقات: