ثقة الجمهور في الذكاء الاصطناعي الطبي تتضاءل أمام الأطباء البشر لكن التعرض يغير المعادلة
الـخـلاصـة
- 🔹 الملخص
- 🔹 تحليل
- 🔹 أسئلة شائعة
كشفت دراسة أميركية حديثة عن تردد واسع النطاق في الثقة بالذكاء الاصطناعي لتشخيص الحالات الصحية، حيث أكد 17% فقط من المشاركين أنهم يثقون في الذكاء الاصطناعي بقدر ثقتهم في الخبراء البشريين. ومع ذلك، أظهرت النتائج أن هذا التردد ليس مطلقاً. الأشخاص الذين لديهم تعرض شخصي لأدوات مثل “شات جي بي تي” أبدوا حماساً وثقة أكبر بكثير في تطبيقات الذكاء الاصطناعي الطبية، خاصة عند عرض أمثلة واقعية محددة مثل الكشف المبكر عن السرطان. يرى الجمهور إمكانات كبيرة في هذه التقنيات تفوق المخاوف، مما يشير إلى أن الإلمام هو المفتاح لردم فجوة الثقة بين الإنسان والآلة في مجال الرعاية الصحية.
📎 المختصر المفيد:
• 17% فقط من الجمهور يثقون بالذكاء الاصطناعي بقدر ثقتهم بالخبير البشري في التشخيص.
• التعرض الشخصي لأدوات الذكاء الاصطناعي (مثل ChatGPT) يزيد من حماس الجمهور وثقته في تطبيقاته الطبية.
• يرى المشاركون في أدوات الذكاء الاصطناعي التشخيصية أملاً وإمكانات كبيرة تفوق الخوف منها.
• الدراسة ركزت على وجهات نظر الجمهور تجاه تشخيص سرطان عنق الرحم بالذكاء الاصطناعي.
ℹ️ خلاصة مختصرة لأهم ما جاء في الخبر قبل التفاصيل
تشير دراسة أميركية جديدة حول مواقف الجمهور تجاه الذكاء الاصطناعي إلى أن معظم الناس يترددون في السماح لـ”شات جي بي تي” (ChatGPT) وأدوات الذكاء الاصطناعي الأخرى بتشخيص حالاتهم الصحية، لكنهم يرون بوادر خير في التقنيات التي تستخدم هذه الأدوات للمساعدة في تشخيص السرطان.
وتعرض النتائج في الاجتماع السنوي لجمعية تحليل المخاطر في الفترة من 7 إلى 10 ديسمبر/كانون الأول الحالي في واشنطن العاصمة.
تركز الدراسة، التي يقودها عالم السلوك الدكتور مايكل سوبوليف من معهد شايفر للسياسات العامة والخدمة الحكومية بجامعة جنوب كاليفورنيا، وأخصائية علم النفس الدكتورة باتريشيا سليبودا، والأستاذة المساعدة في كلية باروخ بجامعة مدينة نيويورك، على وجهات نظر الجمهور -وتحديدا في مسائل الثقة والفهم والإمكانات والحماس والخوف من الذكاء الاصطناعي- في مجال تشخيص السرطان، وهو أحد أكثر تطبيقات الذكاء الاصطناعي استخداما وتأثيرا في الطب.
استخدمت الدراسة بيانات من استبيانين وطنيين لتقييم مدى ارتباط الاستخدام الشخصي لأدوات الذكاء الاصطناعي مثل “شات جي بي تي”، والثقة العامة في الذكاء الاصطناعي الطبي بقبول أداة تشخيصية قائمة على الذكاء الاصطناعي لسرطان عنق الرحم. وخلصت للنتائج الرئيسية التالية:
- لا يزال معظم الناس يثقون في الأطباء أكثر من الذكاء الاصطناعي. فقد صرح حوالي شخص واحد فقط من كل 6 أشخاص (17%) بأنه يثق في الذكاء الاصطناعي بقدر ثقته في الخبير البشري في تشخيص المشاكل الصحية.
- يشعر الأشخاص الذين جربوا الذكاء الاصطناعي (مثل شات جي بي تي) بإيجابية أكبر تجاه تطبيقه في الطب. أما أولئك الذين استخدموا الذكاء الاصطناعي في حياتهم الشخصية، فقالوا إنهم يفهمونه بشكل أفضل، وكانوا أكثر حماسا وثقة باستخدامه في الرعاية الصحية (55.1% من المشاركين سمعوا عن شات جي بي تي لكنهم لم يستخدموه، في حين سمع عنه 20.9% واستخدموه).
أمل لا خطر
يرى الناس أملا، لا خطرا. فعندما علم المشاركون بأداة ذكاء اصطناعي تساعد في الكشف عن العلامات المبكرة للسرطان، اعتقد معظمهم أنها تتمتع بإمكانيات كبيرة، وكانوا أكثر حماسا من خوفهم.
يقول سليبودا “تظهر أبحاثنا أنه حتى القليل من التعرض للذكاء الاصطناعي -مجرد السماع عنه أو تجربته- يمكن أن يجعل الناس أكثر ارتياحا وثقة به. نعلم من الأبحاث أن الإلمام بالتقنيات الجديدة، وليس الذكاء الاصطناعي فقط، يلعب دورا كبيرا في كيفية تقبل الناس لها”.
في الاستطلاع الأول، تحدث المشاركون عما إذا كانوا قد سمعوا بتقنيات الذكاء الاصطناعي أو استخدموها، وأجابوا على أسئلة حول ثقتهم العامة بها في تشخيصات الصحة.
في الاستطلاع الثاني، عرض على المشاركين سيناريو قائم على تجربة عملية، حيث طور فريق بحثي نظام ذكاء اصطناعي يمكنه تحليل الصور الرقمية لعنق الرحم للكشف عن التغيرات التي تسبق السرطان (وهي تقنية تسمى التقييم البصري الآلي). ثم قيم المشاركون خمسة عناصر لقبول أداة الذكاء الاصطناعي التشخيصية هذه على مقياس من 1 إلى 5: الفهم، والثقة، والحماس، والخوف، والإمكانات.
أظهر تحليل النتائج أن الإمكانات كانت الأعلى تقييما عند تقييم أداة الذكاء الاصطناعي التشخيصية، يليها الحماس، والثقة، والفهم، والخوف.
يقول سوبوليف، الذي يقود وحدة التصميم السلوكي في مركز سيدارز سيناي الطبي في لوس أنجلوس بهدف تعزيز الابتكار الذي يركز على الإنسان، “لقد فوجئنا بالفجوة بين ما قاله الناس بشكل عام عن الذكاء الاصطناعي وما شعروا به في مثال واقعي”. ويضيف “تظهر نتائجنا أن التعرف على أمثلة واقعية محددة يمكن أن يساعد في بناء الثقة بين الناس والذكاء الاصطناعي في مجال الطب”.
🔍 تحليل وتفاصيل إضافية
إن استمرار الثقة العامة العالية في الأطباء البشريين، رغم المكاسب المثبتة لكفاءة الذكاء الاصطناعي في التشخيص، يسلط الضوء على عنق زجاجة تنظيمي واقتصادي حاسم. هذه الفجوة في الثقة ليست مجرد عامل نفسي؛ بل هي رافعة قوية للمؤسسات الطبية الراسخة واللوبيات الصيدلانية التي تسعى للتحكم في سرعة نشر أدوات الذكاء الاصطناعي ونموذج تحقيق الدخل منها. فإذا تم الوثوق بالذكاء الاصطناعي على الفور، فإنه سيسرع من تحويل الخدمات التشخيصية إلى سلع، مما يهدد تدفقات الإيرادات ذات الهامش المرتفع المرتبطة بالخبرة البشرية المتخصصة. وبالتالي، فإن التكامل البطيء والمتحكم فيه، المدفوع بـ ‘التعرض’ بدلاً من التبني الفوري، يخدم الأجندة الاقتصادية المتمثلة في إبقاء الطبيب كحارس إلزامي، مما يضمن بقاء الذكاء الاصطناعي أداة مساعدة وليس بديلاً جذرياً ومخفضاً للتكاليف.
💡 إضاءة: الفجوة المفاجئة بين الثقة العامة المنخفضة في الذكاء الاصطناعي (17%) والشعور العالي بالإمكانات والأمل عند عرض مثال واقعي محدد (تشخيص سرطان عنق الرحم).
❓ حقائق صادمة: هل يحل الذكاء الاصطناعي محل الطبيب البشري؟
ليش الناس ما بتوثق بالذكاء الاصطناعي بالتشخيص؟
شو النسبة اللي بتوثق بالذكاء الاصطناعي متل الدكتور؟
هل استخدام ChatGPT بيغير رأي الناس تجاه الطب؟
شو كان المثال العملي اللي استخدموه بالدراسة؟
شو كان شعور الناس لما شافوا الأداة اللي بتشخص السرطان؟
مين هم الباحثين الرئيسيين بهالدراسة؟
📖 اقرأ أيضًا
- من الأقوى.. نماذج الذكاء الاصطناعي الصينية أم الأميركية؟
- إنترسبت: جامعات أميركية تتجسس على طلابها بالذكاء الاصطناعي إرضاء للمانحين العسكريين
- أدوات الذكاء الاصطناعي للتحقق من الحقائق.. دليل الصحفي الشامل لمكافحة الأخبار المضللة
- الصحافة الأخلاقية في عصر الذكاء الاصطناعي.. اختبار الضمير أمام سلطة الخوارزمية
- 7 طرق لكسب المال عبر الذكاء الاصطناعي

