Evaluation of Artificial Intelligence-Based Chatbot Responses to Common Dermatological Queries

المؤلفون

  • Indrasish Podder Department of Dermatology and Veneriology, College of Medicine and Sagore Dutta Hospital, West Bengal, India.
  • Neha Pipil Department of Pharmacology, Rajshree Medical Research Institute, Bareilly, Uttar Pradesh, India
  • Arunima Dhabal Department of Dermatology, Jagannath Gupta Institute of Medical Sciences, West Bengal, India.
  • Shaikat Mondal Department of Physiology, Raiganj Government Medical College and Hospital, West Bengal, India
  • Vitsomenuo Pienyii Department of Physiology, Nagaland Institute of Medical Science and Research, Kohima, Nagaland, India.
  • Himel Mondal Department of Physiology, All India Institute of Medical Sciences, Deoghar, Jharkhand, India

DOI:

https://doi.org/10.35516/jmj.v58i2.2960

الكلمات المفتاحية:

الذكاء الاصطناعي، أطباء الجلد، محرك البحث، تقديم الرعاية الصحية، الذكاء

الملخص

 

الخلفية والأهداف: يمكن لبرامج بوت المحادثة القائمة على الذكاء الاصطناعي تسهيل الرعاية الصحية من خلال تقديم تفاعلات فورية وشخصية للمرضى، بالإضافة للإجابة على الاستفسارات وتوفير معلومات طبية عامة. إن قدرة هذه البرامج على الكشف المبكر عن الأمراض واقتراح خطط علاجية قد يؤدي إلى تحسن في نتاج الرعاية الصحية للمرضى. هدفت هذه الدراسة إلى التحقق من جدوى استخدام لبرامج بوت المحادثة القائمة على الذكاء الاصطناعي في التعامل مع تحديات التشخيص وتوصيات العلاج للأمراض الجلدية الشائعة.

منهجية الدراسة: تم تجميع مجموعة بيانات تضم 22 حالة من الحالات الجلدية، وكانت كل حالة مصحوبة بثلاثة استفسارات محددة. تم تقديم هذه النماذج القصيرة للحالة إلى أربعة نماذج محادثة متميزة للذكاء الاصطناعي - ChatGPT 3.5، وGoogle Gemini، (Microsoft Copilot (GPT 4، Perplexity.ai، وتم حفظ الردود لتقييم الملاءمة والدقة السريرية. قام اثنان من أطباء الجلد الخبراء بشكل مستقل بتقييم استجابات أنظمة الذكاء الاصطناعي باستخدام مقياس ليكرت المكون من 5 نقاط يتراوح من الدقة العالية (= 5) إلى الأقل دقة (= 1).

النتائج: كان متوسط ​​درجة ChatGPT 4.1 ± 0.61، وكان Gemini 3.86 ± 0.88، وكان Microsoft Copilot 4.51 ± 0.33، وكان Perplexity.ai 4.14 ± 0.64، P = 0.01. كان الفارق الكبير في النتيجة بين Gemini مقابل Microsoft Copilot (كوهين d = 0.98)، ChatGPT مقابل Microsoft Copilot (كوهين d = 0.83)، Microsoft Copilot مقابل Perplexity.ai (كوهين d = 0.75). كانت جميع نتائج برامج بوت المحادثة القائمة على الذكاء الاصطناعي مشابهة لدقة 80% (واحد عينة اختبار t بقيمة افتراضية 4) باستثناء Microsoft Copilot والذي أظهر دقة تقارب 90٪.

الاستنتاجات: تسلط هذه الدراسة الضوء على إمكانات برامج بوت المحادثة القائمة على الذكاء الاصطناعي في مجال الرعاية الصحية الجلدية من أجل تثقيف المرضى. وبالرغم من ذلك، فإن النتائج تؤكد محدوديتها في التشخيص الدقيق للأمراض. يمكن استخدام هذه البرامج كمصادر تكميلية بدلاً من أدوات التشخيص الأولية.

الكلمات الدالة: الذكاء الاصطناعي، أطباء الجلد، محرك البحث، تقديم الرعاية الصحية، الذكاء.

التنزيلات

منشور

2024-03-01

كيفية الاقتباس

Podder, I. ., Pipil, N. ., Dhabal, A. ., Mondal, S. ., Pienyii, V. ., & Mondal, H. . (2024). Evaluation of Artificial Intelligence-Based Chatbot Responses to Common Dermatological Queries. المجلة الطبية الأردنية, 58(3). https://doi.org/10.35516/jmj.v58i2.2960

إصدار

القسم

Special Issue