فى الماضى، كان الخيار أمام من يداهمه صداع مفاجئ أو ألم غير معتاد فى منتصف الليل هو انتظار الصباح لزيارة الطبيب أو التوجه إلى قسم الطوارئ بأقرب مستشفى، أما اليوم، فالأمر لا يتطلب من الملايين حول العالم سوى بضع نقرات على شاشة الهاتف الذكى لإدخال وصف بأعراضهم إلى أدوات الذكاء الاصطناعى التوليدى، ومن بينها «ChatGPT»، منتظرين تشخيصًا فوريًا ووصفة طبية من «طبيب رقمى» لا ينام. ويطرح هذا التحول الجذرى فى سلوك المرضى، الذى برز بقوة خلال الأشهر القليلة الماضية، تساؤلات ملحة ومعقدة على الإنسانية كلها، ومن بينها تساؤل: هل يمكن حقًا ائتمان خوارزميات وبرمجيات على صحة الإنسان وحياته؟، وما الحدود الفاصلة بين التوعية الطبية المطلوبة والمخاطرة العمياء بالثقة فى أداة رقمية؟
«الدستور» تفتح فى السطور التالية ملف الاعتماد المتزايد على الذكاء الاصطناعى فى المجال الطبى، مستطلعة آراء خبراء التكنولوجيا، وكبار الأطباء، ورجال القانون، حول مدى خطورة ذلك، فى محاولة لفك الاشتباك بين وهم «المعرفة المطلقة» للآلة، وبين ضرورة الحفاظ على التقييم السريرى البشرى.
خبراء تكنولوجيا: «هلوسة الذكاء الاصطناعى» تقدم إجابات تبدو منطقية لكنها غير دقيقة علميًا
الانبهار بقدرة الذكاء الاصطناعى على صياغة إجابات تبدو علمية ورصينة، خلق حالة من «سوء الفهم البشرى» لطبيعة هذه التقنية.. بهذا بدأ المهندس خالد خليفة، الخبير التكنولوجى حديثه، موضحًا أن الاعتماد على الذكاء الاصطناعى فى المجال الطبى أصبح واقعًا متزايد الانتشار، مشيرًا إلى أن لجوء المستخدمين لأدوات مثل «ChatGPT» للحصول على تفسيرات أولية للأعراض أو المساعدة فى فهم التحاليل الطبية يمكن أن يكون أمرًا إيجابيًا، لكنه يشترط أن يظل داخل إطار واضح قوامه «التسهيل وليس الاستبدال».
وقال إن القيمة الحقيقية للنماذج الرقمية تكمن فى تسريع الفهم وتبسيط المعلومة، مشددًا على أن الذكاء الاصطناعى لا يمكن اعتباره طبيبًا بديلًا، فهو أداة مساعدة تعمل على تقديم احتمالات وتحليلات مبنية على كم هائل من البيانات.
وشدد على أن: «الثقة فى نتائج الذكاء الاصطناعى لا يمكن أن تكون مطلقة. فهو يقدم احتمالات مفيدة، قد توجه تفكير المستخدم نحو التخصص المناسب، لكنه غير قادر على الإحاطة الكاملة بالحالة الفردية بكل تفاصيلها، ما يجعل الإشراف البشرى ضرورة لا غنى عنها».
وأشار إلى أن تلك النماذج يمكنها أيضًا التعلم من التفاعلات والتصحيحات، سواء كانت من المستخدمين أو من المختصين، إلا أن هذا لا يمنحها عصمة من الخطأ، إذ تظل النتائج قائمة على الاحتمالات وليس اليقين.
وأكد أن الذكاء الاصطناعى فى المجال الطبى يجب أن يُفهم باعتباره مساعدًا معرفيًا وتحليليًا، لا أكثر، لأنه يعتمد على تحليل احتمالات مستمدة من بيانات ضخمة، بينما يظل الطبيب البشرى هو المرجعية الأساسية للتشخيص والعلاج، مشددًا على أن المستقبل الحقيقى لهذه التقنيات يكمن فى دعم القرار الطبى لا استبداله.
الأمر نفسه أكده محمد مصطفى خليفة، مدرب تقنيات الذكاء الاصطناعى، موضحًا أن فهم تلك النماذج للأعراض لا يشبه الفهم البشرى المستند إلى الخبرة أو الحدس أو السياق السريرى، بل يعتمد حصريًا على التحليل اللغوى والاحتمالى.
وقال «خليفة»: «النموذج يحول الأعراض المذكورة إلى بيانات نصية، ثم يقارنها بأنماط ضخمة تدرب عليها، فعندما تذكر أعراضًا مثل الصداع والدوخة، فالنظام لا يشخص الحالة، بل يبحث عن أقرب الأنماط المشابهة لغويًا وإحصائيًا فى بيانات التدريب، ليقدم احتمالات متعددة دون فحص حقيقى».
وفيما يتعلق بمصدر المعلومات، أوضح أن الذكاء الاصطناعى يعتمد على مزيج من البيانات الحقيقية والتوقعات الاحتمالية، لأنه فى الأصل تم تدريبه على كم هائل من مصادر موثوقة تشمل أبحاثًا طبية وكتبًا ودراسات علمية، لكنه عند الاستخدام لا يسترجع قاعدة بيانات ثابتة، بل يقوم بتوليد الإجابات عبر التوقع الإحصائى للكلمات الأكثر ترجيحًا.
وأشار إلى أن تلك الآلية تجعل الإجابات تبدو علمية ودقيقة فى كثير من الأحيان، لكنها تظل فى النهاية قائمة على الاحتمال وليس على تأكيد طبى مباشر، ما يمثل أحد أبرز التحديات فى استخدامه طبيًا.
ولفت إلى وجود ظاهرة تقنية بالغة الخطورة تُعرف بـ«هلوسة الذكاء الاصطناعى» «AI Hallucination»، وتظهر عندما يقدم النموذج إجابات تبدو منطقية وصياغتها واثقة لكنها غير دقيقة علميًا أو حتى غير موجودة فى الواقع، وأسبابها نقص المعلومات المقدمة من المستخدم، مع غياب السياق الكامل للحالة، أو امتداد الحوار بشكل غير منضبط.
وشدد على أن من مخاطر الهلوسة تقديم التشخيصات الخاطئة، أو اقتراح جرعات دوائية قاتلة، أو إحالات لمراجع علمية وهمية، ما يمثل تهديدًا مباشرًا لحياة المريض.
مُحامٍ: التطبيقات الذكية ليست كيانات قانونية يمكن مقاضاتها عند الخطأ
اعتبر أيمن محفوظ، المحامى بالنقض، أن تحول الذكاء الاصطناعى إلى «موضة» ومرجعية لكل ما يستجد فى الحياة اليومية يعد أمرًا خطيرًا، خاصة إن تعلق بصحة الإنسان وحياته.
وأوضح «محفوظ» أن التعامل مع الذكاء الاصطناعى وكأنه كيان مطلق المعرفة يمثل خطأ جسيمًا، لأنه فى حقيقته مجرد نظام صناعى من صنع البشر، قائم على الاحتمالات وقد يخطئ أو يصيب، وبالتالى لا يجوز منحه ثقة مطلقة خاصة فى القضايا المتعلقة بصحة الإنسان وحياته.
وأشار إلى أن أخطر صور هذا الاستخدام غير الواعى يظهر فى المجال الطبى، مع اعتماد بعض الأشخاص على توصيات الذكاء الاصطناعى فى التشخيص أو العلاج، ما قد يؤدى إلى نتائج كارثية إذا تم اتخاذ قرارات صحية دون الرجوع إلى الطبيب المختص.
ولفت إلى أن مبدأ المسئولية القانونية يظل قائمًا فى حال وقوع ضرر نتيجة هذا الاستخدام، موضحًا أن القانون المدنى المصرى فى مادته رقم ١٦٣ ينص على حق التعويض عن أى ضرر يصيب الغير، إلا أن الإشكالية القانونية تكمن فى أن الذكاء الاصطناعى ذاته لا يتمتع بالشخصية القانونية التى تخوله أن يكون خصمًا أمام القضاء، سواء كشخص طبيعى أو اعتبارى.
ونوه بأن مقاضاة الشركات المطورة للتطبيقات تظل قائمة من الناحية النظرية إلا أن معظم هذه الشركات يتحصن قانونيًا، عبر بنود واضحة تنص على أن التطبيق لا يُعد بديلًا عن الاستشارة الطبية أو المهنية، مع إخلاء مسئوليتها عن أى استخدام خاطئ أو نتائج مترتبة على الاعتماد عليه بشكل كامل، ما يشكل- حسب تعبيره- «حواجز قانونية يصعب تجاوزها أمام المحاكم».
كما أشار «محفوظ» إلى أن مسألة حماية بيانات المستخدمين تظل محل جدل، لافتًا إلى أن استخدام البيانات الشخصية بطرق غير مشروعة، سواء لأغراض دعائية أو غير ذلك، يعد أمرًا مجرمًا وفقًا لقانون حماية البيانات الشخصية رقم ١٥١ لسنة ٢٠٢٠، الذى ينظم معالجة البيانات إلكترونيًا سواء جزئيًا أو كليًا لدى المتحكمين والمعالجين لها.
وأضاف: «للمتضرر من أى تسريب أو انتهاك لبياناته الحق فى اللجوء إلى القضاء، ومقاضاة الشركات أو المسئولين عن معالجة البيانات، والمطالبة بالتعويض عن الأضرار المادية أو الأدبية التى لحقت به نتيجة هذا الانتهاك، لكن تنفيذ ذلك على أرض الواقع صعب فيما يتعلق بنماذج الذكاء الاصطناعى».
واختتم حديثه بالتشديد على ضرورة التعامل مع الذكاء الاصطناعى بوعى قانونى ومجتمعى، قائم على إدراك حدوده ومخاطره، وعدم تحويله إلى مرجعية مطلقة، خاصة فى القضايا التى تمس حياة الإنسان وحقوقه الأساسية.
أطباء: الاستشارات قد تقود إلى تشخيصات مضللة تهدد سلامة المرضى
قال الدكتور جمال شعبان، استشارى القلب عميد معهد القلب الأسبق، إنه رصد تزايدًا ملحوظًا فى اعتماد المرضى على «ChatGPT» للحصول على استشارات أولية، معتبرًا ذلك نتيجة طبيعية لمشكلة الانتظار فى العيادات، وصعوبة الوصول للرعاية الصحية ببعض المناطق.
وأكد شعبان أن ما يجب الانتباه إليه- كما تشير دراسات حديثة من جامعات مثل أكسفورد وDuke University- أن هذا الاعتماد فى كثير من الأحيان يكون غير مدروس، وقد يحمل مخاطر حقيقية على صحة المريض.
وأوضح أن الخطر الأساسى يكمن فى الطريقة التى يتعامل بها المرضى مع هذه الأدوات، إذ يتعامل المريض مع الذكاء الاصطناعى كأنه طبيب بشرى، ما يؤدى إلى مجموعة من الأخطاء المتكررة: «يقول المريض مثلًا (أعتقد أننى مصاب بمرض معين، ما العلاج؟) وهنا يؤكد الذكاء الاصطناعى أحيانًا هذا التصور الخاطئ دون إجراء استجواب طبى كامل، ثم يبنى عليه إجابات لاحقة قد تكون مضللة».
وأضاف: «كثير من المرضى لا يقدمون التاريخ المرضى الكامل أو التفاصيل الدقيقة، سواء لأسباب نفسية أو لعدم الوعى، ما يؤدى إلى انخفاض دقة التشخيص فى بعض الحالات إلى أقل من ٣٥- ٤٤٪ فى التفاعلات الواقعية.
وأفاد بأن هناك أيضًا مشكلة اختلاف الإجابات حسب صياغة السؤال، ما يجعل من الصعب على المريض العادى التمييز بين الإجابة الدقيقة وغير الدقيقة، موضحًا أنه من الأخطاء الشائعة كذلك اتباع النصائح الطبية بشكل مباشر، سواء كانت جرعات أدوية أو إجراءات منزلية، أو حتى تجاهل علامات تستدعى الذهاب للطوارئ، ما يُعرف بـ«under-triage»، وقد يصل فى بعض الدراسات إلى ٥٢٪ فى الحالات الطارئة.
ولفت إلى أنه «لا يمكن إغفال خطورة مشاركة البيانات الشخصية الحساسة دون وعى كافٍ بمخاطر الخصوصية، خصوصًا أن هذه البيانات لا تخضع لحماية طبية مثل HIPAA، وفى بعض الحالات يصل الأمر إلى الاعتماد الكامل على الذكاء الاصطناعى دون الرجوع إلى طبيب، ما قد يؤدى إلى تأخير التشخيص أو اتخاذ قرارات علاجية خاطئة».
وقال: «رغم هذه المخاطر، فإن السؤال المهم هو (هل يمكن أن ينجح الذكاء الاصطناعى يومًا ما فى التشخيص الطبى؟) والإجابة هى (نعم) إلى حد كبير فى بعض الجوانب، وهو بالفعل يتطور بسرعة ملحوظة».
وأضاف: «على سبيل المثال، نماذج متخصصة مثل Med -PaLM 2 حققت نتائج وصلت إلى ٨٦.٥٪ فى اختبارات طبية معيارية من نوع USMLE، وهى نتائج تتفوق فى بعض الحالات على الأطباء غير المتخصصين، كما أن نماذج مثل GPT-4 وGPT-4V أظهرت أداءً قويًا فى المعلومات الطبية العامة، إذ تراوحت دقتها بين ٧٢٪ و٩٦٪ مقارنة بـ٤٦٪ إلى ٦٢٪ لدى غير المتخصصين فى بعض الدراسات».
وأكمل: «فى بعض الحالات المعقدة، أظهرت أنظمة ذكاء اصطناعى من مايكروسوفت دقة قد تصل إلى أربعة أضعاف دقة الأطباء فى تشخيص حالات نادرة، لكن رغم ذلك، تبقى الصورة غير مثالية، إذ إن متوسط الدقة فى المهام التشخيصية الواقعية لا يزال نحو ٥٢٪ وفق تحليلات ٢٠٢٥، وينخفض بشكل واضح عند التفاعل الحوارى المعقد أو عند التعامل مع صور وسياقات متعددة، لذلك يمكن القول إن الذكاء الاصطناعى يتفوق على غير المتخصصين، لكنه لا يزال أقل من الأطباء الخبراء».
أما عن استخدامه بأمان، أوضح الدكتور جمال شعبان أنه ممكن ولكن بشروط واضحة، أهمها أن يكون أداة مساعدة وليس بديلًا عن الطبيب، ويمكن الاستفادة منه فى الفرز الأولى للحالات غير الطارئة، أو الحصول على معلومات عامة، أو شرح الأمراض بطريقة مبسطة، أو حتى تلخيص السجلات الطبية تحت إشراف طبى، كما يمكن أن يساعد فى اقتراح أسئلة يطرحها المريض على الطبيب، أو الحصول على رأى ثانٍ مبدئى، لكن لا يجب الاعتماد عليه فى الحالات الطارئة، أو عند ظهور أعراض جديدة ومعقدة، أو فى تحديد جرعات الأدوية والعلاجات، أو فى أى قرار يحتاج إلى فحص سريرى مباشر.
وأشار إلى أن القاعدة الذهبية هى «الذكاء الاصطناعى لا يغنى عن الطبيب، ولا يمكن أن يكون بديلًا عن التشخيص الإكلينيكى المباشر».
وعن مستقبل العلاقة بين الطبيب والذكاء الاصطناعى، قال: «هى ليست علاقة صراع كما يظن البعض، بل علاقة دعم وتكامل، فالإجماع العلمى والطبى فى مؤسسات مثل AMA ودراسات ٢٠٢٤- ٢٠٢٦ يؤكدان أن الذكاء الاصطناعى لن يحل محل الطبيب، بل سيعمل على دعمه، من خلال تقليل الأعباء الإدارية، وتحسين دقة التشخيص عند الاستخدام المشترك، وإتاحة وقت أكبر للطبيب للتركيز على الجانب الإنسانى فى التعامل مع المريض».
وتابع: «جرى تلخيص ذلك فى مقولة شهيرة (الأطباء الذين يستخدمون الذكاء الاصطناعى سيحلون محل الذين لا يستخدمونه) لكن فى المقابل، هناك تحذير مهم من أن الاستخدام الخاطئ قد يؤدى إلى تراجع جودة العلاقة بين الطبيب والمريض، إذا جرى الاعتماد عليه بشكل مفرط. وبشكل عام، فإن الخطر الحقيقى لا يكمن فى الذكاء الاصطناعى نفسه، بل فى طريقة استخدامه».
ورأى أن الذكاء الاصطناعى يمثل فرصة كبيرة لتحسين الرعاية الصحية فى مصر والعالم، بشرط التوعية الجيدة، والتدريب الصحيح، والالتزام بأن يظل الطبيب هو الأساس فى اتخاذ القرار الطبى، وليس الآلة.
من جهته، ذكر الدكتور محمد حلمى، استشارى التغذية العلاجية رئيس الجمعية المصرية الدولية للتغذية والسمنة «Esino»، أن المجال الطبى لا يمكن مقارنته بالبحث عن معلومات تاريخية أو رياضية عبر الذكاء الاصطناعى.
وقال: «التشخيص الطبى يعتمد على تواصل إنسانى مباشر، يشمل الفحص السريرى وأخذ التاريخ المرضى بدقة، إلى جانب ملاحظات قد تبدو بسيطة لكنها تكون مفتاحًا مهمًا فى الوصول إلى التشخيص الصحيح، وهو ما لا يمكن للذكاء الاصطناعى القيام به بنفس الكفاءة أو العمق الإنسانى».
وحذر من خطأ شائع لدى بعض المرضى، خاصة من فئة الشباب، يتمثل فى تصديق نتائج الذكاء الاصطناعى بشكل كامل، بل وأحيانًا الاعتراض على رأى الطبيب البشرى استنادًا إلى ما يقدمه لهم «الدكتور الرقمى»، معتبرًا أن هذه الظاهرة تمثل مشكلة متزايدة قد تتفاقم مع الوقت إذا لم يجر التعامل معها بوعى.
وأكد أن الذكاء الاصطناعى يمكن أن يسهم فى التشخيص كمساعد فقط، وليس بديلًا عن الطبيب، موضحًا أنه يعتمد فى الأساس على البيانات التى أنتجها الإنسان من أطباء وباحثين ودراسات علمية، وبالتالى يظل فى النهاية انعكاسًا للمعرفة البشرية وليس بديلًا عنها.
وأضاف أن دور الذكاء الاصطناعى يمكن أن يتمثل فى تسريع تحليل البيانات الطبية وتنظيمها والاحتفاظ بها، بما يساعد الطبيب على الوصول إلى قرارات أكثر دقة، لكنه لا يمكن أن يحل محل العنصر البشرى فى اتخاذ القرار الطبى النهائى، خاصة فى الحالات التى تتطلب تقييمًا شاملًا للحالة الصحية والنفسية والاجتماعية للمريض.
وأشار إلى أن الذكاء الاصطناعى يمثل «سلاحًا ذا حدين»، فالاستخدام الواعى له يمكن أن يدعم الطبيب ويطور من أدائه، بينما الاستخدام الخاطئ قد يؤدى إلى تقليل الاعتماد على الطبيب أو خلق تصورات طبية غير دقيقة لدى المرضى، ما يهدد جودة الرعاية الصحية.
وشدد على أهمية أن يكون الطبيب نفسه مواكبًا للتطورات التكنولوجية الحديثة، بما فى ذلك تقنيات الذكاء الاصطناعى، حتى يتمكن من توظيفها بشكل صحيح داخل المنظومة الطبية، إلى جانب ضرورة نشر الوعى بين المرضى بأن هذه الأدوات لا يمكن اعتبارها بديلًا عن الطبيب أو مستشارًا طبيًا مستقلًا.
ونوّه بأن خطورة الاعتماد الكامل على الذكاء الاصطناعى فى المجال الطبى تكمن فى غياب التواصل الإنسانى وفقدان القدرة على فهم الجوانب الكاملة لحالة المريض، سواء الصحية أو النفسية أو الاجتماعية، ما قد يؤدى إلى نتائج غير دقيقة، مشددًا على أن الذكاء الاصطناعى قد يكون أداة مفيدة، لكنه فى بعض الحالات قد يتحول إلى عامل ضرر إذا أسىء استخدامه.
















0 تعليق