ملخص سريع
تسعى روبوتات الدردشة المدعومة بالذكاء الاصطناعي لأن تصبح الشيء الكبير التالي في الرعاية الصحية، متفوقة في الاختبارات الموحدة وتقديم النصائح لمشاكلك الصحية. لكن دراسة جديدة نُشرت في Nature Medicine أظهرت أنها ليست فقط بعيدة جدًا عن تحقيق ذلك، بل قد تكون خطيرة في الواقع. حددت الدراسة، التي قادها عدة فرق من جامعة أكسفورد، فجوة واضحة في النماذج اللغوية الكبيرة (LLMs). على الرغم من أنها كانت متقدمة تقنيًا في الفهم الطبي، إلا أنها كانت قصيرة عندما يتعلق الأمر بمساعدة المستخدمين في مشاكلهم الطبية الشخصية، وفقًا للباحثين. قالت الدكتورة ريبيكا باين، الطبيبة الرئيسية في الدراسة، في بيان صحفي يعلن عن نتائجها: “على الرغم من كل الضجة، فإن الذكاء الاصطناعي ليس جاهزًا بعد لتولي دور الطبيب.” وأضافت أن “المرضى بحاجة إلى أن يكونوا على وعي بأن سؤال نموذج لغوي كبير عن أعراضهم يمكن أن يكون خطيرًا، لأنه قد يعطي تشخيصات خاطئة ويفشل في التعرف على الحالات التي تتطلب مساعدة عاجلة.” شملت الدراسة 1300 مشارك استخدموا نماذج ذكاء اصطناعي من OpenAI وMeta وCohere لتحديد الحالات الصحية. وضعوا سلسلة من السيناريوهات التي وضعها أطباء، وطلبوا من النظام الذكي أن يخبرهم بما يجب عليهم فعله بعد ذلك للتعامل مع مشكلتهم الطبية.
وجدت الدراسة أن نتائجها لم تكن أفضل من الطرق التقليدية للتشخيص الذاتي، مثل البحث عبر الإنترنت أو الحكم الشخصي. كما اكتشفت أن هناك فجوة لدى المستخدمين، غير متأكدين من المعلومات التي يحتاجها النموذج اللغوي الكبير لتقديم نصيحة دقيقة. تم تزويد المستخدمين بمزيج من النصائح الجيدة والسيئة، مما جعل من الصعب تحديد الخطوات التالية. تواصلت Decrypt مع OpenAI وMeta وCohere للتعليق، وستقوم بتحديث هذا المقال إذا ردوا.
قالت باين لـ Decrypt: “كطبيبة، هناك الكثير من الأمور التي تتجاوز مجرد استرجاع الحقائق للوصول إلى التشخيص الصحيح. الطب فن بالإضافة إلى علم. الاستماع، الاستقصاء، التوضيح، التحقق من الفهم، وتوجيه الحوار كلها ضرورية.” وأضافت أن “الأطباء يستخرجون الأعراض ذات الصلة بنشاط لأن المرضى غالبًا لا يعرفون أي التفاصيل مهمة”، مشيرة إلى أن الدراسة أظهرت أن النماذج اللغوية الكبيرة “ليست بعد قادرة بشكل موثوق على إدارة تلك التفاعلات الديناميكية مع غير الخبراء.” خلص الفريق إلى أن الذكاء الاصطناعي غير مناسب حاليًا لتقديم النصائح الطبية، وأن أنظمة تقييم جديدة ضرورية إذا أُريد استخدامه بشكل صحيح في الرعاية الصحية. ومع ذلك، هذا لا يعني أنه لا يمكن أن يكون له مكان في المجال الطبي كما هو الآن. قالت باين إن النماذج اللغوية الكبيرة “بالطبع لها دور في الرعاية الصحية”، ولكن يجب أن يكون دورها “مساعدًا، وليس طبيبًا.” وأوضحت أن التقنية لها فوائد من حيث “تلخيص وإعادة صياغة المعلومات التي تم تقديمها لها بالفعل”، وأنها تُستخدم بالفعل في غرف العيادات لـ"نسخ المحادثات وإعادة تعبئتها كرسالة إلى أخصائي، أو ورقة معلومات للمريض، أو لسجلات الطبية." اختتم الفريق أن، على الرغم من أنهم ليسوا ضد الذكاء الاصطناعي في الرعاية الصحية، إلا أنهم يأملون أن تُستخدم هذه الدراسة بشكل أفضل لتوجيهه في الاتجاه الصحيح.