تحذير من دراسة أكسفورد: روبوتات الدردشة الذكية تقدم نصائح طبية "خطيرة"

Decrypt

ملخص سريع

  • تشير أبحاث من جامعة أكسفورد إلى أن روبوتات الدردشة المدعومة بالذكاء الاصطناعي تقدم نصائح طبية خطيرة للمستخدمين.
  • على الرغم من أن روبوتات الدردشة تحقق نتائج عالية في اختبارات موحدة للمعرفة الطبية، إلا أنها تتراجع في السيناريوهات الشخصية، وفقًا للدراسة.
  • وجد الباحثون أن النماذج اللغوية الكبيرة (LLMs) ليست أفضل من الطرق التقليدية لاتخاذ القرارات الطبية.

تسعى روبوتات الدردشة المدعومة بالذكاء الاصطناعي لأن تصبح الشيء الكبير التالي في الرعاية الصحية، متفوقة في الاختبارات الموحدة وتقديم النصائح لمشاكلك الصحية. لكن دراسة جديدة نُشرت في Nature Medicine أظهرت أنها ليست فقط بعيدة جدًا عن تحقيق ذلك، بل قد تكون خطيرة في الواقع. حددت الدراسة، التي قادها عدة فرق من جامعة أكسفورد، فجوة واضحة في النماذج اللغوية الكبيرة (LLMs). على الرغم من أنها كانت متقدمة تقنيًا في الفهم الطبي، إلا أنها كانت قصيرة عندما يتعلق الأمر بمساعدة المستخدمين في مشاكلهم الطبية الشخصية، وفقًا للباحثين. قالت الدكتورة ريبيكا باين، الطبيبة الرئيسية في الدراسة، في بيان صحفي يعلن عن نتائجها: “على الرغم من كل الضجة، فإن الذكاء الاصطناعي ليس جاهزًا بعد لتولي دور الطبيب.” وأضافت أن “المرضى بحاجة إلى أن يكونوا على وعي بأن سؤال نموذج لغوي كبير عن أعراضهم يمكن أن يكون خطيرًا، لأنه قد يعطي تشخيصات خاطئة ويفشل في التعرف على الحالات التي تتطلب مساعدة عاجلة.” شملت الدراسة 1300 مشارك استخدموا نماذج ذكاء اصطناعي من OpenAI وMeta وCohere لتحديد الحالات الصحية. وضعوا سلسلة من السيناريوهات التي وضعها أطباء، وطلبوا من النظام الذكي أن يخبرهم بما يجب عليهم فعله بعد ذلك للتعامل مع مشكلتهم الطبية.

وجدت الدراسة أن نتائجها لم تكن أفضل من الطرق التقليدية للتشخيص الذاتي، مثل البحث عبر الإنترنت أو الحكم الشخصي. كما اكتشفت أن هناك فجوة لدى المستخدمين، غير متأكدين من المعلومات التي يحتاجها النموذج اللغوي الكبير لتقديم نصيحة دقيقة. تم تزويد المستخدمين بمزيج من النصائح الجيدة والسيئة، مما جعل من الصعب تحديد الخطوات التالية. تواصلت Decrypt مع OpenAI وMeta وCohere للتعليق، وستقوم بتحديث هذا المقال إذا ردوا.

قالت باين لـ Decrypt: “كطبيبة، هناك الكثير من الأمور التي تتجاوز مجرد استرجاع الحقائق للوصول إلى التشخيص الصحيح. الطب فن بالإضافة إلى علم. الاستماع، الاستقصاء، التوضيح، التحقق من الفهم، وتوجيه الحوار كلها ضرورية.” وأضافت أن “الأطباء يستخرجون الأعراض ذات الصلة بنشاط لأن المرضى غالبًا لا يعرفون أي التفاصيل مهمة”، مشيرة إلى أن الدراسة أظهرت أن النماذج اللغوية الكبيرة “ليست بعد قادرة بشكل موثوق على إدارة تلك التفاعلات الديناميكية مع غير الخبراء.” خلص الفريق إلى أن الذكاء الاصطناعي غير مناسب حاليًا لتقديم النصائح الطبية، وأن أنظمة تقييم جديدة ضرورية إذا أُريد استخدامه بشكل صحيح في الرعاية الصحية. ومع ذلك، هذا لا يعني أنه لا يمكن أن يكون له مكان في المجال الطبي كما هو الآن. قالت باين إن النماذج اللغوية الكبيرة “بالطبع لها دور في الرعاية الصحية”، ولكن يجب أن يكون دورها “مساعدًا، وليس طبيبًا.” وأوضحت أن التقنية لها فوائد من حيث “تلخيص وإعادة صياغة المعلومات التي تم تقديمها لها بالفعل”، وأنها تُستخدم بالفعل في غرف العيادات لـ"نسخ المحادثات وإعادة تعبئتها كرسالة إلى أخصائي، أو ورقة معلومات للمريض، أو لسجلات الطبية." اختتم الفريق أن، على الرغم من أنهم ليسوا ضد الذكاء الاصطناعي في الرعاية الصحية، إلا أنهم يأملون أن تُستخدم هذه الدراسة بشكل أفضل لتوجيهه في الاتجاه الصحيح.

شاهد النسخة الأصلية
إخلاء المسؤولية: قد تكون المعلومات الواردة في هذه الصفحة من مصادر خارجية ولا تمثل آراء أو مواقف Gate. المحتوى المعروض في هذه الصفحة هو لأغراض مرجعية فقط ولا يشكّل أي نصيحة مالية أو استثمارية أو قانونية. لا تضمن Gate دقة أو اكتمال المعلومات، ولا تتحمّل أي مسؤولية عن أي خسائر ناتجة عن استخدام هذه المعلومات. تنطوي الاستثمارات في الأصول الافتراضية على مخاطر عالية وتخضع لتقلبات سعرية كبيرة. قد تخسر كامل رأس المال المستثمر. يرجى فهم المخاطر ذات الصلة فهمًا كاملًا واتخاذ قرارات مدروسة بناءً على وضعك المالي وقدرتك على تحمّل المخاطر. للتفاصيل، يرجى الرجوع إلى إخلاء المسؤولية.
تعليق
0/400
لا توجد تعليقات