نبض أرقام
08:47 ص
توقيت مكة المكرمة

2025/09/20
2025/09/19

دراسات: أدوات الذكاء الاصطناعي الطبية قد تظهر تحيزات عرقية

2025/09/19 أرقام

حذّرت أبحاث حديثة من أن اعتماد أدوات الذكاء الاصطناعي في القطاع الطبي قد يؤدي إلى نتائج صحية أقل كفاءة للنساء والأقليات العرقية، نتيجة لانعكاس التحيزات الموجودة في بيانات التدريب على هذه النماذج.


وأظهرت دراسات أجرتها جامعات أمريكية وبريطانية بارزة أن بعض النماذج اللغوية الموسعة (LLMs) تميل إلى التقليل من شدة أعراض النساء مقارنة بالرجال، فيما تقدم استجابات أقل تعاطفاً مع المرضى من ذوي الأصول الإفريقية والآسيوية، خصوصاً في حالات الدعم النفسي، وفقاً لصحيفة "فاينانشيال تايمز".


وتزامنت التحذيرات مع إسراع شركات التكنولوجيا الكبرى مثل "مايكروسوفت" و"جوجل" و"أمازون" و"أوبن إيه آي" لتطوير تطبيقات تستهدف تخفيف الأعباء عن الأطباء وتسريع التشخيص والعلاج في أنظمة صحية تعاني ضغوطاً متزايدة.


الدراسات وجدت أيضاً أن المرضى الذين يستخدمون لغة غير رسمية أو يكتبون برسائل تحوي أخطاء إملائية كانوا أكثر عرضة لتلقي نصائح تقلل من الحاجة إلى مراجعة الطبيب، حتى مع تطابق الأعراض مع مرضى آخرين صاغوا رسائلهم بشكل صحيح.


وأثارت هذه الملاحظة مخاوف من تعرض غير الناطقين بالإنجليزية أو الأقل إلماماً بالتكنولوجيا إلى تمييز غير مباشر، ويرى الباحثون أن المشكلة إجمالاً تعود بالأساس إلى طبيعة البيانات المستخدمة في تدريب النماذج، والتي غالباً ما تأتي من الإنترنت وتعكس تحيزاته.

التعليقات {{getCommentCount()}}

كن أول من يعلق على الخبر

loader Train
عذرا : لقد انتهت الفتره المسموح بها للتعليق على هذا الخبر
الآراء الواردة في التعليقات تعبر عن آراء أصحابها وليس عن رأي بوابة أرقام المالية. وستلغى التعليقات التي تتضمن اساءة لأشخاص أو تجريح لشعب أو دولة. ونذكر الزوار بأن هذا موقع اقتصادي ولا يقبل التعليقات السياسية أو الدينية.