التكنولوجيا اليومية
·28/01/2026
كشف تجربة حديثة شملت ChatGPT وقدراته الجديدة في التحليل الصحي عن أخطاء كبيرة عند معالجة عقد من بيانات Apple Watch الشخصية. على الرغم من الادعاءات بفهم الأنماط الصحية، قدم الذكاء الاصطناعي درجة منخفضة بشكل مقلق للصحة القلبية، مما استدعى زيارة إلى طبيب متخصص ومراجعة خبراء، والتي وجدت أن تقييمات الذكاء الاصطناعي غير موثوقة وقد تكون مضللة.
قدم مستخدم لـ ChatGPT Health بيانات لمدة 10 سنوات من ساعته Apple Watch، بما في ذلك ملايين الخطوات وقياسات نبضات القلب. خصص الذكاء الاصطناعي في البداية درجة رسوب ('F') للصحة القلبية، مما تسبب في قلق كبير. دفع هذا المستخدم إلى استشارة طبيبه، الذي أكد صحته القلبية الممتازة، مما يتناقض مع تقييم الذكاء الاصطناعي.
راجع طبيب القلب إريك توبول أيضًا تحليل الذكاء الاصطناعي، واصفًا إياه بأنه "لا أساس له" وذكر أن "هذا غير جاهز لأي نصيحة طبية". اعتمد تقييم الذكاء الاصطناعي بشكل كبير على مقاييس مثل تقدير الحد الأقصى لاستهلاك الأكسجين (VO2 max) وتغير معدل ضربات القلب، والتي من المعروف أن لها قيودًا وأخطاء عند اشتقاقها من الأجهزة القابلة للارتداء وحدها.
تم اختبار منافس الذكاء الاصطناعي من Anthropic، Claude for Healthcare، ببيانات مماثلة، حيث قدم درجة 'C' للصحة القلبية. على الرغم من أنها أقل إثارة للقلق من درجة 'F' التي حصل عليها ChatGPT، إلا أن هذا التقييم وجد أيضًا أنه مشكوك فيه من قبل الخبراء. تعترف كلتا الشركتين بأن أدواتهما في مراحل اختبار مبكرة ولا يمكنها استبدال الأطباء أو تقديم تشخيصات، وغالبًا ما تتضمن إخلاء مسؤولية. ومع ذلك، فقد قدموا طواعية تحليلات صحية شخصية مفصلة.
الخصوصية هي مصدر قلق كبير آخر. بينما تنص OpenAI على أن البيانات المستخدمة في وضع Health الخاص بها مشفرة ولا تستخدم للتدريب، فإن أدوات الذكاء الاصطناعي هذه غير مشمولة بقانون HIPAA، وهو قانون خصوصية الصحة الفيدرالي. هذا يعني أن بيانات المستخدم غير محمية بنفس معايير الخصوصية الصارمة التي يتمتع بها مقدمو الرعاية الصحية التقليديون.
كشفت اختبارات إضافية عن عدم اتساق في أداء الذكاء الاصطناعي. وجد المستخدم أن تكرار نفس الاستعلامات لـ ChatGPT أدى إلى تقلبات في الدرجات، تتراوح من 'F' إلى 'B'. كما نسي الذكاء الاصطناعي أحيانًا معلومات شخصية مهمة، مثل الجنس والعمر، وفشل أحيانًا في استخدام جميع البيانات الطبية المقدمة في تحليله. وصف الخبراء هذا السلوك المتقلب بأنه "غير مقبول على الإطلاق"، وحذروا من أنه قد يؤدي إلى قلق لا مبرر له أو شعور زائف بالأمان.
ذكرت OpenAI أن هذه الاختلافات قد تحدث لأن الذكاء الاصطناعي يزن مصادر بيانات مختلفة بشكل مختلف، وأنهم يعملون على تحسين استقرار الاستجابة. وبالمثل، أظهر Claude اختلافات في المخرجات، والتي عزتها Anthropic إلى الطبيعة المتأصلة للمحادثات الآلية.
بينما يمتلك الذكاء الاصطناعي إمكانات هائلة لفتح رؤى طبية وتحسين الوصول إلى الرعاية، فإن التطبيقات الحالية في التحليل الصحي الشخصي تثبت أنها غير موثوقة. يؤكد الخبراء على أن نماذج الذكاء الاصطناعي تحتاج إلى أن تكون متطورة بما يكفي لحساب ضوضاء البيانات ونقاط ضعفها، وربط هذه البيانات بدقة بنتائج صحية نهائية. يبدو أن الجيل الحالي من أدوات الذكاء الاصطناعي الصحية، على الرغم من قدراتها المتقدمة، يبالغ في قدرته على تقديم تقييمات صحية شخصية دقيقة، مما يثير تساؤلات حول جاهزيتها للاستخدام على نطاق واسع.









