هلا كندا – كشفت دراسة حديثة عن مخاوف متزايدة بشأن دقة المعلومات الصحية التي تقدمها أدوات الذكاء الاصطناعي، مع ازدياد اعتماد المستخدمين عليها للحصول على استشارات طبية أولية.
وأوضحت الدراسة أن نحو 50% من إجابات أبرز أنظمة الذكاء الاصطناعي المصممة للإرشاد الطبي وُصفت بأنها مضللة أو غير دقيقة، فيما اعتُبرت 20% منها شديدة الإشكال، مقابل 30% فقط تم تصنيفها كإجابات مقبولة.
وأشار الباحثون إلى أن الاختبارات شملت خمسة نماذج ذكاء اصطناعي عبر 50 سؤالاً طبياً، تناولت موضوعات مثل السرطان والتغذية واللقاحات، ما أظهر تفاوتاً واضحاً في جودة المعلومات المقدمة.
كما لفتت النتائج إلى أن بعض الأنظمة قدمت مراجع علمية غير صحيحة أو روابط غير موجودة، ما يثير مخاوف حول موثوقية مصادرها، خاصة في القضايا الصحية الحساسة.
وبيّنت الدراسة أن الأسئلة المفتوحة المتعلقة بالنصائح الصحية العامة كانت الأكثر عرضة للأخطاء مقارنة بالأسئلة الدقيقة والمحددة، وهو ما يعكس محدودية فهم هذه النماذج للسياق الطبي.
ويرى الباحثون أن أنظمة الذكاء الاصطناعي لا تمتلك فهماً طبياً حقيقياً، بل تعتمد على التنبؤ اللغوي بناءً على بيانات تدريب قد تتضمن مصادر غير موثوقة، ما قد يؤدي إلى إجابات تبدو صحيحة لكنها غير دقيقة علمياً.
ورغم ذلك، يؤكد خبراء أن الذكاء الاصطناعي يمكن أن يساعد في تبسيط المعلومات الصحية أو التحضير للاستشارات الطبية، لكنه لا يمكن أن يكون بديلاً عن الأطباء أو التشخيص المباشر.
ويأتي هذا التطور في سياق تنامي استخدام أدوات الذكاء الاصطناعي في المجال الصحي، ما يدفع إلى ضرورة تعزيز الرقابة والتحقق من المعلومات، لضمان حماية المستخدمين من المعلومات المضللة.


