الرئيسية / منوعات / هل يمكن للذكاء الاصطناعي تشخيص الحالات الطبية إلى جانب الأطباء البشريين؟

هل يمكن للذكاء الاصطناعي تشخيص الحالات الطبية إلى جانب الأطباء البشريين؟

الشرق اليوم– مع لجوء المزيد من الأشخاص إلى الذكاء الاصطناعي كـ طبيب الكتروني قائم على الدردشة للحصول على المشورة الطبية، يبقى أن نرى كيف تتراكم هذه الأدوات ضد أو يمكن أن تكمل الأطباء البشريين.
اعتاد بنيامين تولشين، طبيب الأعصاب في جامعة ييل، على رؤية المرضى الذين بحثوا عن أعراضهم على الإنترنت قبل القدوم لرؤيته. وهي ممارسة حاول الأطباء منذ فترة طويلة تثبيطها.حيث كان من المعروف أنGoogle تفتقر إلى السياق وتميل إلى سحب مصادر غير موثوقة عند البحث بها .

ولكن في الأشهر الأخيرة، بدأ تولشين في رؤية المرضى الذين يستخدمون أداة جديدة أقوى بكثير للتشخيص الذاتي. وهى روبوتات دردشة الذكاء الاصطناعي مثل ChatGPT من OpenAI، هو أحدث إصدار من محرك بحث Microsoft Bing الذي يعتمد على برنامج OpenAI) و M-PL) حيث تتنبأ هذه النماذج اللغوية الكبيرة (LLMs)، التي تم تدريبها على النص عبر الإنترنت، بالكلمة التالية في تسلسل للإجابة على الأسئلة بأسلوب يشبه الإنسان. في مواجهة النقص الحاد في العاملين في مجال الرعاية الصحية، يأمل الباحثون والمهنيون الطبيون أن تتدخل الروبوتات للمساعدة في الإجابة على أسئلة الناس. تشير الاختبارات الأولية التي أجراها الباحثون إلى أن برامج الذكاء الاصطناعي هذه أكثر دقة بكثير من بحث Google.

يتوقع بعض الباحثين أنه في غضون العام، سيعلن مركز طبي كبير عن تعاون باستخدام روبوتات الدردشة للتفاعل مع المرضى وتشخيص المرض.

تم إطلاق ChatGPT في نوفمبر الماضي فقط، لكن تولشين يقول إن مريضين على الأقل أخبروه بالفعل أنهما استخدماه لتشخيص الأعراض بأنفسهما أو للبحث عن الآثار الجانبية للأدوية. يقول إن الإجابات كانت معقولة. ويضيف: “إنه أمر مثير للإعجاب ومشجع للغاية من حيث الإمكانات المستقبلية”.
ومع ذلك، يشعر تولشين وآخرون بالقلق من أن روبوتات الدردشة بها عدد من العيوب ، بما في ذلك عدم اليقين بشأن دقة المعلومات التي يقدمونها للأشخاص، والتهديدات للخصوصية والتحيز العنصري والجنساني المتأصل في النص الذي تستمد منه الخوارزميات. كما يتساءل عن كيفية تفسير الناس للمعلومات. يقول تولشين إن هناك احتمالية جديدة للضرر لم تكن موجودة مع عمليات البحث البسيطة على Google أو مدققات الأعراض.

التشخيص بمساعدة الذكاء الاصطناعي
تغيرت ممارسة الطب بشكل متزايد عبر الإنترنت في السنوات الأخيرة. خلال جائحة COVID، زاد عدد الرسائل من المرضى إلى الأطباء عبر البوابات الرقمية بأكثر من 50 بالمائة. تستخدم العديد من الأنظمة الطبية بالفعل روبوتات دردشة أبسط لأداء مهام مثل جدولة المواعيد وتزويد الأشخاص بمعلومات الصحة العامة. تقول نينا سينغ، طالبة الطب في جامعة نيويورك التي تدرس الذكاء الاصطناعي في الطب: “إنها مساحة معقدة لأنها تتطور بسرعة كبيرة”.

لكن روبوتات الدردشة المقروءة جيدًا يمكن أن تنقل التعاون بين الطبيب والذكاء الاصطناعي وحتى التشخيص إلى مستوى جديد. في دراسة نُشرت في فبراير والتي لم تتم مراجعتها بعد، كتب عالم الأوبئة أندرو بيم من جامعة هارفارد وزملاؤه 48 طلبًا تمت صياغتها على أنها أوصاف لأعراض المرضى. عندما قاموا بإدخالها إلى Open AI’s GPT-3 – نسخة الخوارزمية التي كانت تدعم ChatGPT في ذلك الوقت – تضمنت التشخيصات الثلاثة الأولى المحتملة لكل حالة التشخيص الصحيح بنسبة 88 بالمائة. وبالمقارنة، يمكن للأطباء القيام بذلك بنسبة 96 في المائة عند إعطائهم نفس المطالب، بينما يمكن للأشخاص الذين ليس لديهم تدريب طبي القيام بذلك بنسبة 54 في المائة.

يقول بيم: “إنه لأمر مدهش بالنسبة لي أن هذه الأشياء المكتملة تلقائيًا يمكن أن تؤدي إلى فحص الأعراض جيدًا خارج الصندوق”. وجدت الأبحاث السابقة أن مدققات الأعراض عبر الإنترنت خوارزميات الكمبيوتر لمساعدة المرضى في التشخيص الذاتي تنتج فقط التشخيص الصحيح من بين الاحتمالات الثلاثة الأولى بنسبة 51.

يعد استخدام روبوتات الدردشة أسهل أيضًا من مدقق الأعراض عبر الإنترنت لأنه يمكن للأشخاص ببساطة وصف تجربتهم بدلاً من تحويلها إلى برامج تحسب الاحتمالية الإحصائية للمرض. بالإضافة إلى ذلك، يمكن للروبوتات طرح أسئلة متابعة على المريض، مثلما يفعل الطبيب. ومع ذلك، يقر بأن أوصاف الأعراض في الدراسة تمت كتابتها بعناية وكان لها تشخيص صحيح واحد يمكن أن تكون الدقة أقل إذا كانت أوصاف المريض سيئة الصياغة أو تفتقر إلى المعلومات الهامة.

أخطاء الذكاء الاصطناعي
يشعر بيم بالقلق من أن روبوتات الدردشة قد تكون عرضة للمعلومات المضللة. تتنبأ خوارزمياتهم بالكلمة التالية في سلسلة بناءً على احتمالية وجودها في النص عبر الإنترنت الذي تم تدريبه عليه، والذي من المحتمل أن يمنح وزنًا متساويًا، على سبيل المثال، للمعلومات من المراكز الأمريكية لمكافحة الأمراض والوقاية منها وخيط عشوائي على Facebook. قال متحدث باسم OpenAI لـ Scientific American إن الشركة تدرب نموذجها مسبقًا للتأكد من أنها تجيب كما ينوي المستخدم، لكنها لم توضح ما إذا كان يعطي وزناً أكبر لمصادر معينة. وتضيف أن المهنيين في مختلف المجالات عالية الخطورة ساعدوا GPT-4 على تجنب “الهلوسة،”الردود التي يخمن فيها النموذج إجابة من خلال إنشاء معلومات جديدة غير موجودة. بسبب هذا الخطر، تتضمن الشركة إخلاء مسؤولية يقول إنه لا ينبغي استخدام ChatGPT لتشخيص الحالات الخطيرة، أو تقديم تعليمات حول كيفية علاج حالة ما أو إدارة المشكلات التي تهدد الحياة.
على الرغم من أن ChatGPT مدرب فقط على المعلومات المتاحة قبل سبتمبر 2021، إلا أن شخصًا عازمًا على نشر معلومات خاطئة حول اللقاحات، على سبيل المثال، يمكن أن يغمر الإنترنت بمحتوى مصمم لالتقاطه من قبل ChatGPT في المستقبل. تواصل روبوتات الدردشة من Google التعلم من المحتوى الجديد على الإنترنت. يقول مهندس كمبيوتر في جامعة نيويورك: «نتوقع أن تكون هذه واجهة جديدة لمحاولات توجيه المحادثة».

يمكن أن يوفر إجبار روبوتات الدردشة على الارتباط بمصادرها، كما يفعل محرك Bing من Microsoft، حلاً واحدًا. ومع ذلك، أظهرت العديد من الدراسات وتجارب المستخدمين أن روبوتات الدردشة يمكن أن تهلوس المصادر غير الموجودة وتنسيقها لتبدو وكأنها استشهادات موثوقة. إن تحديد ما إذا كانت تلك المصادر المذكورة مشروعة من شأنه أن يضع عبئًا كبيرًا على المستخدم. يمكن أن تتضمن الحلول الأخرى مطوري LLMروبوتات الدردشة التحكم في المصادر التي تسحبها الروبوتات أو جيوش مدققي الحقائق التي تتعامل يدويًا مع الأكاذيب كما يرونها، مما يردع الروبوتات عن إعطاء تلك الإجابات في المستقبل. ومع ذلك، سيكون من الصعب توسيع نطاق هذا مع مقدار المحتوى الناتج عن الذكاء الاصطناعي.

تتبع Google نهجًا مختلفًا من خلال روبوت الدردشة ، والذي يستمد من مجموعة بيانات ضخمة من الأسئلة والإجابات الحقيقية من المرضى ومقدمي الخدمات، بالإضافة إلى اختبارات الترخيص الطبي المخزنة في قواعد بيانات مختلفة. عندما اختبر الباحثون Google على «محاور» مختلفة، بما في ذلك التوافق مع الإجماع الطبي والاكتمال واحتمال الضرر، في دراسة مسبقة، تتماشى إجاباتها مع الإجماع الطبي والعلمي 92.6 في المائة. سجل الأطباء البشريون 92.9 في المائة بشكل عام. كانت إجابات Chatbot أكثر عرضة لفقدان المحتوى من الإجابات البشرية، لكن الإجابات كانت أقل عرضة للإضرار بالصحة الجسدية أو العقلية للمستخدمين.

لم تكن قدرة روبوتات الدردشة على الإجابة على الأسئلة الطبية مفاجئة للباحثين. اجتازت نسخة سابقة من MedPaLM و ChatGPT اختبار الترخيص الطبي في الولايات المتحدة. لكن آلان كارثيكسا لينجام، عالم الأبحاث السريرية في Google ومؤلف دراسة MedPaLM، يقول إن تعلم شكل أسئلة وإجابات المريض والمزود يمكّن الذكاء الاصطناعي من النظر إلى الصورة الأوسع لصحة الشخص.

السرعة التي يمكن أن تدخل بها روبوتات الدردشة الطب تثير قلق بعض الباحثين حتى أولئك الذين هم متحمسون لإمكانات التكنولوجيا الجديدة. تقول مرزية قاسمي، عالمة الكمبيوتر في معهد ماساتشوستس للتكنولوجيا: “إنهم ينشرون التكنولوجيا قبل أن تتمكن الهيئات التنظيمية من اللحاق بالركب”.

إدامة التحيز والعنصرية
تشعر القاسمي بالقلق بشكل خاص من أن روبوتات الدردشة ستديم العنصرية والتمييز على أساس الجنس وأنواع التحيز الأخرى التي لا تزال قائمة في الطب وعبر الإنترنت. تقول: “لقد تم تدريبهم على البيانات التي أنتجها البشر، لذلك لديهم كل تحيز قد يتخيله المرء”. على سبيل المثال، النساء أقل عرضة من الرجال لوصف مسكنات الألم، والسود أكثر عرضة من الأشخاص البيض لتشخيص إصابتهم بالفصام وأقل عرضة للإصابة بالاكتئاب آثار التحيزات في التعليم الطبي والقوالب النمطية المجتمعية التي يمكن للذكاء الاصطناعي التقاطها من تدريبه. في دراسة غير منشورة، وجد بيم أنه عندما يسأل ChatGPT عما إذا كان يثق في وصف الشخص لأعراضه، فمن غير المرجح أن يثق في مجموعات عرقية وجنسانية معينة. لم يرد بوقت النشر حول كيفية أو ما إذا كان يعالج هذا النوع من التحيز في الطب.

من المستحيل إزالة العنصرية من الإنترنت، لكن القاسمي تقول إن المطورين قد يكونون قادرين على إجراء عمليات تدقيق استباقية لمعرفة المكان الذي يعطي فيه روبوت الدردشة إجابات متحيزة ويطلب منه التوقف أو تحديد التحيزات الشائعة التي تظهر في محادثاته مع المستخدمين.

يقول كارثيكسا لينجام أن المطورين الذين يدربون ويقيمون MedPaLM في Google متنوعون، مما قد يساعد الشركة على تحديد ومعالجة التحيزات في روبوت الدردشة. لكنه يضيف أن معالجة التحيزات هي عملية مستمرة ستعتمد على كيفية استخدام النظام.

يعد ضمان علاج للمرضى بشكل عادل أمرًا ضروريًا لجعل الناس يثقون في روبوت الدردشة وهو تحدٍ في حد ذاته. من غير المعروف، على سبيل المثال، ما إذا كان الخوض في الإجابات على بحث Google يجعل الأشخاص أكثر تمييزًا من إعطائهم إجابة بواسطة روبوت الدردشة.

يشعر تولشين بالقلق من أن سلوك روبوت الدردشة الودود يمكن أن يدفع الناس إلى الوثوق به كثيرًا وتقديم معلومات محددة شخصيًا يمكن أن تعرضهم للخطر. يقول: “هناك مستوى من الثقة والارتباط العاطفي”. وفقًا لإخلاء المسؤولية على موقع الويب الخاص بـ OpenAI، تقوم ChatGPT بجمع المعلومات من المستخدمين، مثل موقعهم وعنوان IP. يقول تولشين إن إضافة تصريحات تبدو غير ضارة حول أفراد الأسرة أو الهوايات يمكن أن تهدد خصوصية المرء.

كما أنه من غير الواضح ما إذا كان الناس سينسجمون مع الحصول على معلومات طبية من روبوت الدردشة بدلاً من الطبيب. في يناير، جرب تطبيق الصحة العقلية Koko، الذي يتيح للمتطوعين تقديم نصائح مجانية وسرية، استخدام GPT-3 لكتابة رسائل مشجعة لحوالي 4000 مستخدم. وفقًا لروب موريس، أحد مؤسسي كوكو، ساعد الروبوت المتطوعين في كتابة الرسائل بسرعة أكبر بكثير مما لو كان عليهم تأليفها بأنفسهم. لكن الرسائل كانت أقل فعالية بمجرد أن عرف الناس أنهم يتحدثون إلى روبوت، وسرعان ما أغلقت الشركة التجربة. أثارت التجربة أيضًا رد فعل عنيف ومخاوف من أنها كانت تجرب على الأشخاص دون موافقتهم.

اقرأ ايضًا

علماء يستخدمون الذكاء الاصطناعي لتحويل إشارات الدماغ إلى كلام!
وجد استطلاع حديث أجراه مركز بيو للأبحاث أن حوالي 60 في المائة من الأمريكيين “سيشعرون بعدم الارتياح إذا اعتمد مقدم الرعاية الصحية الخاص بهم على الذكاء الاصطناعي للقيام بأشياء مثل تشخيص المرض والتوصية بالعلاجات”. ومع ذلك، لا يجيد الناس دائمًا معرفة الفرق بين الروبوت والإنسان ومن المرجح أن ينمو هذا الغموض مع تقدم التكنولوجيا. في دراسة حديثة ، صمم سينغ وزملاؤهم اختبار تورينج الطبي لمعرفة ما إذا كان 430 متطوعًا يمكنهم تمييز ChatGPT عن الطبيب. لم يأمر الباحثون ChatGPT بالتعاطف بشكل خاص أو التحدث مثل الطبيب. لقد طلبوا منه ببساطة الإجابة على مجموعة من 10 أسئلة محددة مسبقًا من المرضى في عدد معين من الكلمات. حدد المتطوعون بشكل صحيح كلاً من الطبيب والبوت 65 بالمائة فقط في المتوسط.

يشتبه ديفين مان، الطبيب والباحث المعلوماتي في جامعة نيويورك لانجون هيلث وأحد مؤلفي الدراسة، في أن المتطوعين لم يلتقطوا الخصوصيات في الصياغة البشرية فحسب، بل أيضًا على التفاصيل الواردة في الإجابة. قد تفسر أنظمة الذكاء الاصطناعي، التي تتمتع بوقت وصبر لا نهائيين، الأمور بشكل أبطأ وكامل، بينما قد يعطي الطبيب المشغول إجابة أكثر إيجازًا. يقول إن الخلفية والمعلومات الإضافية قد تكون مثالية لبعض المرضى.

وجد الباحثون أيضًا أن المستخدمين وثقوا في روبوت الدردشة للإجابة على أسئلة بسيطة. ولكن كلما أصبح السؤال أكثر تعقيدًا وكلما زادت المخاطر أو التعقيد قل استعدادهم للثقة في تشخيص روبوت الدردشة.

يقول مان إنه ربما يكون من المحتم أن تدير أنظمة الذكاء الاصطناعي في النهاية جزءًا من التشخيص والعلاج. يقول إن الشيء الرئيسي هو أن الناس يعرفون أن الطبيب متاح إذا كانوا غير راضين عن روبوت الدردشة. يقول: “إنهم يريدون الحصول على هذا الرقم للاتصال بهم للحصول على المستوى التالي من الخدمة”.
يتوقع مان أن يعلن مركز طبي كبير قريبًا عن روبوت دردشة للذكاء الاصطناعي يساعد في تشخيص المرض. ستثير مثل هذه الشراكة مجموعة من الأسئلة الجديدة: ما إذا كان سيتم فرض رسوم على المرضى وشركات التأمين مقابل هذه الخدمة، وكيفية ضمان حماية بيانات المرضى ومن سيكون مسؤولاً إذا تضرر شخص ما من نصيحة روبوت الدردشة. يقول ايضا : “نفكر أيضًا في الخطوات التالية وكيفية تدريب مقدمي الرعاية الصحية على القيام بدورهم» في تفاعل ثلاثي الاتجاهات بين الذكاء الاصطناعي والطبيب والمريض.

المصدر: نقطة المجتمع العلمي العربي

شاهد أيضاً

تحذيرات من استخدام سماعات الأذن طويلا.. وهذه أضرارها

الشرق اليوم- لا يستغني معظم الناس عن استخدام سماعات الأذن يوميًا أثناء المكالمات الهاتفية، والاستماع …