وهم الثقة... حين يكشف الذكاء الاصطناعي حدوده في الطب

وقائع توضِّح أنه ليس معصوماً من الخطأ

وهم الثقة... حين يكشف الذكاء الاصطناعي حدوده في الطب
TT

وهم الثقة... حين يكشف الذكاء الاصطناعي حدوده في الطب

وهم الثقة... حين يكشف الذكاء الاصطناعي حدوده في الطب

في زمن تُسارع فيه دول العالم لتسخير الذكاء الاصطناعي في كل شؤون الحياة، من خطوط الإنتاج في المصانع إلى منصات التداول في الأسواق، يبقى الطب الميدان الأكثر حساسية وامتحاناً حقيقياً لحدود هذه التقنية. وهنا لا تُقاس النتائج بالأرباح أو الخسائر؛ بل بحياة إنسان قد تُنقَذ أو تُفقَد بخطأ واحد في التنبؤ.

ومن بين التحديات الكبرى التي تواجه هذه الثورة الطبية الرقمية، تبرز إشكاليتان جوهريتان: «الإفراط في التعلُّم» حين تُبالغ الخوارزمية في الثقة بنفسها فتتيه في التفاصيل، و«التقصير في التعلُّم» حين تعجز عن إدراك الأنماط فتقدِّم أداءً ناقصاً. وما بين ثقة مفرطة قد تُضلِّل الطبيب، وضعف في الأداء قد يحجب الحقيقة، يكمن الخطر الذي لا بد من وعيه.

إن إدراك هذه المزالق ليس ترفاً نظرياً ولا جدلاً أكاديمياً مغلقاً؛ بل ضرورة سريرية يومية. فالمريض الذي يجلس على كرسي الطبيب لا يعنيه مصطلح «الإفراط» أو «التقصير»، ولكنه ينتظر تشخيصاً صحيحاً وعلاجاً يُعيد له عافيته. وهنا يُصبح فهم هذه التحديات شرطاً أساسياً لجعل الذكاء الاصطناعي أداة داعمة، لا عبئاً إضافياً.

مرجع عالمي في الذكاء الاصطناعي الطبي

تأتي هذه القضية في قلب النقاشات التي احتواها كتاب «التعلُّم الآلي والذكاء الاصطناعي في الرعاية الصحية» (Machine Learning and AI in Healthcare)، الصادر عن دار «Springer» عام 2023، بتحرير الباحثين: كونستانتين أليفريس (Constantin Aliferis) وغيورغي سيمون (Gyorgy Simon). ويُعدُّ هذا الكتاب واحداً من المراجع الأكاديمية والتطبيقية البارزة في مجاله؛ إذ جمع تحت غلافه خبرات نخبة من العلماء العالميين الذين كرَّسوا بحوثهم لفهم التحديات والفرص التي يطرحها الذكاء الاصطناعي في القطاع الصحي.

تكمن قيمة هذا المرجع في أنه لا يكتفي بعرض النجاحات أو النماذج الواعدة؛ بل يذهب أبعد من ذلك ليكشف المزالق والأخطاء المحتملة، من الإفراط في التعلُّم إلى الثقة المفرطة بالنماذج. وهنا يقدِّم الكتاب رؤية متوازنة تجمع بين الأمل الكبير الذي يحمله الذكاء الاصطناعي للطب، وبين الحذر الواجب عند التعامل مع خوارزميات قد تتحوّل –إن أسيء استخدامها– من أداة إنقاذ إلى مصدر خطر.

من الحفظ الأعمى إلى الفهم الحقيقي

يشبِّه العلماء ظاهرة «الإفراط في التعلُّم» (Overfitting) بالطالب الذي يحفظ الأسئلة المتوقعة للامتحان عن ظهر قلب، فينجح ببراعة إذا طُرحت كما هي، ولكنه يتعثر عند مواجهة سؤال جديد. والأمر نفسه يحدث مع بعض أنظمة الذكاء الاصطناعي؛ فهي تتقن التعامل مع بيانات محدودة بدقة مذهلة، ولكنها تنهار عندما تُختبر في ظروف مختلفة عن تلك التي تدربت عليها.

ولعل المثال الأشهر قصة نظام طوَّرته جامعة أميركية لاكتشاف سرطان الرئة من صور الأشعة. ففي التجارب الأولى، سجَّل نتائج مبهرة بدقة قاربت 97 في المائة. ولكن المفاجأة جاءت عند تطبيقه على صور من مستشفى آخر؛ إذ تراجعت الدقة إلى أقل من 60 في المائة. والسبب لم يكن في ضعف الخوارزمية بقدر ما كان في «ذكائها المفرط»؛ فقد تعلَّمت على نحو غير مقصود التعرُّف إلى شعارات الأجهزة الطبية التي ظهرت في الصور، لا ملامح المرض ذاته. وهكذا، التبس على النظام الفرق بين العلامة التجارية والورم السرطاني!

هذا المثال يوضح أن النجاح في بيئة ضيقة لا يعني بالضرورة الكفاءة في الواقع الأوسع، وأن الفهم الحقيقي لا يتحقق إلا عندما تتجاوز الخوارزميات حدود «الحفظ الأعمى» إلى استيعاب الأنماط الجوهرية للمرض.

الوجه الآخر: السذاجة القاتلة

في الجهة المقابلة من الإفراط، تقف مشكلة «التقصير في التعلُّم» (Underfitting)؛ حيث تكون النماذج أبسط من أن تلتقط الأنماط الجوهرية في البيانات. النتيجة أشبه بتخمين أعمى: أداء ضعيف لا يختلف كثيراً عن الحظ.

تخيَّل طبيباً افتراضياً يُعرَض عليه تخطيط قلب لمريض يعاني ذبحة صدرية (Acute Myocardial Infarction)؛ أي انسداد مفاجئ في أحد شرايين القلب يؤدي إلى توقف تدفق الدم إلى جزء من عضلة القلب، وهو ما يُعرف بالنوبة القلبية. ومع ذلك، لا يرى هذا «الطبيب» الفارق بين التخطيط للمريض والتخطيط الطبيعي... ببساطة لأن نظامه لم يتعلَّم بما يكفي.

هذا ليس سيناريو افتراضياً فحسب؛ بل واقع تكرر في بعض أنظمة الذكاء الاصطناعي التي طُوِّرت للكشف عن أمراض القلب عبر إشارات التخطيط الكهربائي. وحين جرى اختبارها في بيئة مختلفة عن بيانات التدريب، لم تتجاوز دقتها 50 في المائة؛ أي أنها عملياً لم تكن أفضل من رمي قطعة نقدية في الهواء.

والمشهد ذاته يتكرر في طب الأسنان؛ فقد أظهرت بعض الخوارزميات ضعفاً في التمييز بين التسوُّس المبكر وبين بقع التصبغات والتلونات الطبيعية على سطح السن. والنتيجة أن بعض المرضى تلقُّوا إنذارات خاطئة، أو أُهملوا في مراحل حرجة كان يمكن فيها التدخل المبكر.

هذه الإخفاقات تذكِّرنا بأن الذكاء الاصطناعي، مهما بدا لامعاً، يمكن أن يتحوَّل إلى أداة عديمة الجدوى إن لم يُبْنَ على بيانات كافية ومتنوعة، تُعلِّمه كيف يفرِّق بين الخطأ والحقيقة.

حين تتحول الثقة إلى وهم

لا تكمن المشكلة في الإفراط أو التقصير في التعلُّم فحسب؛ بل في ظاهرة أخطر تُعرف بـ«الثقة المفرطة»، (Overconfidence) وهي أن يقدِّم النموذج تنبؤاته بلهجة قاطعة، توحي باليقين، بينما تكون الحقيقة أبعد ما تكون عن الصحة. هنا يصبح الخطر مضاعفاً: ليس فقط نتيجة خاطئة؛ بل نتيجة مغلَّفة بطمأنينة زائفة قد تُضلِّل الأطباء، وتؤثر مباشرة في حياة المرضى.

في عام 2020، نشرت مجلة «Nature Medicine» دراسة بارزة كشفت إخفاق نموذج طوَّرته إحدى الشركات التقنية الكبرى، وكان يُسوَّق له كأداة رائدة لتشخيص سرطان الثدي. في التجارب الأولية، أظهر النموذج أداءً واعداً، ولكن عند اختباره في بيئات مختلفة عن بيانات تدريبه، تراجعت دقته بشكل صادم. الأخطر أنه واصل إصدار تنبؤات ممهورة بدرجة ثقة عالية، الأمر الذي جعل الأطباء يظنون أن النتيجة حاسمة، بينما كانت في الواقع مضللة.

ولم يكن هذا المثال وحيداً. ففي مجال علم الأمراض الباثولوجي، طُوِّرت أنظمة ذكاء اصطناعي لتحليل شرائح الأنسجة المجهرية، بهدف التعرُّف على الأورام. ورغم دقتها العالية في بيئة التدريب، فإنها أظهرت ثقة مفرطة عند مواجهة عينات جديدة ذات اختلافات طفيفة في الصبغات أو جودة الشرائح. في بعض الحالات، أعطت هذه الأنظمة تشخيصاً جازماً بوجود ورم خبيث، بينما كانت العينة سليمة تماماً. هذا التضليل كاد أن يقود إلى قرارات علاجية جراحية غير ضرورية، لولا تدخُّل الخبرة البشرية التي أعادت التقييم.

هذه النماذج تكشف عن حقيقة صادمة: الخوارزمية قد تخطئ، ولكن الكارثة تبدأ حين تُخفي خطأها تحت قناع الثقة المطلقة.

دروس من أرض الواقع

وإليكم بعض الدروس حول أخطاء الذكاء الاصطناعي:

1. سرطان الجلد: أظهرت أنظمة الذكاء الاصطناعي للكشف عن الميلانوما نتائج مبهرة في مختبرات البحث، ولكنها أخفقت عند اختبارها على مرضى من أعراق مختلفة؛ لأن معظم بيانات التدريب جاءت من ذوي البشرة البيضاء. النتيجة: أداء ضعيف عند مواجهة البشرة السمراء أو الداكنة، وهو ما كشف تحيزاً خطيراً في بناء البيانات.

2. «كورونا»: خلال جائحة «كوفيد-19»، تسابقت مراكز البحوث لتطوير نماذج للتشخيص السريع من صور الأشعة الصدرية. ولكن مراجعة شاملة نُشرت عام 2021 في مجلة «BMJ» أكدت أن غالبية هذه النماذج لم تكن صالحة للتطبيق السريري، إما بسبب ضعف التعميم وإما بسبب تحيزات في بيانات التدريب، ما جعلها غير موثوقة في إنقاذ الأرواح في لحظة الأزمة.

3. قسم الطوارئ: في الولايات المتحدة، اعتمد أحد المستشفيات على نظام آلي لفرز المرضى (Triage) وتحديد أولوياتهم في قسم الطوارئ. ولكن التجربة انتهت بكارثة أخلاقية: النظام كان يقلل من خطورة بعض حالات النساء والأقليات مقارنة بالرجال البيض! والسبب هو تحيُّز خفي في البيانات التاريخية التي بُني عليها، عكس تمييزاً متوارثاً في النظام الصحي نفسه.

هذه الأمثلة الثلاثة تكشف بوضوح أن الذكاء الاصطناعي ليس «معصوماً». خطورته لا تكمن فقط في وقوعه في الخطأ؛ بل في إقناعنا -بدرجة ثقة عالية- بأنه على صواب. وهنا تكمن الحاجة إلى عين بشرية ناقدة تضع حدوداً لثقة الخوارزميات، قبل أن تتحول هذه الثقة إلى وهم يهدد حياة الإنسان.

الطريق إلى أفضل الممارسات

يبقى السؤال: كيف يمكننا أن نتفادى هذه المزالق، ونحوِّل الذكاء الاصطناعي إلى شريك موثوق فعلاً في الطب؟ الحل ليس في هدم التقنية أو الخوف منها؛ بل في تبنِّي الممارسات الفضلى التي تجعل الخوارزميات أكثر عدلاً وموثوقية:

- تنويع مصادر البيانات: بحيث تشمل مرضى من أعراق وخلفيات بيئية مختلفة، فلا تبقى النماذج حبيسة فئة واحدة.

- التقييم الصارم: عبر أساليب مثل التحقق المتقاطع أو المتبادل (Cross- Validation)، للتأكد من أن النموذج لا ينجح فقط في بيئة ضيقة؛ بل يثبت نفسه أمام بيانات جديدة.

- الشفافية: وذلك بنشر النتائج كاملة، مع توضيح نقاط القوة والقصور، بدل الاكتفاء بالأرقام اللامعة.

- عادة الاختبار المستقل: على يد فرق بحثية مختلفة، وقبل أي تطبيق سريري واسع، لتجنُّب تكرار أخطاء الماضي.

بهذه الخطوات، يتحوَّل الذكاء الاصطناعي من مصدر قلق إلى أداة أكثر أماناً، تفتح الطريق أمام ثقة مدروسة وليست عمياء.

لماذا تهمنا هذه الدروس في العالم العربي؟

الأمر بالسبة لنا لا يقتصر على متابعة سباق عالمي؛ بل يرتبط مباشرة بصحة مجتمعاتنا ومستقبل أنظمتنا الطبية. فنحن نسعى اليوم لبناء مستشفيات ذكية في الرياض ودبي والقاهرة ونيوم، تحمل وعوداً بتغيير جذري في الرعاية الصحية. ولكن هذه الوعود قد تتحول إلى سراب إذا استوردنا أنظمة لامعة في المؤتمرات، ثم اكتشفنا أنها عاجزة في أقسام الطوارئ عند مواجهة مرضانا ببيئتهم وخصائصهم المختلفة.

لقد أثبتت التجارب أن النظام الذي يحقق نتائج مذهلة في بوسطن أو لندن قد يفشل في جدة أو الرباط، إذا لم تُؤخذ بعين الاعتبار الخصوصيات الجينية والبيئية والغذائية لشعوبنا. فأنماط الأمراض، والبصمات الجينية، وحتى العادات الغذائية في منطقتنا تختلف جذرياً عن الغرب، ما يجعل نقل الخوارزميات كما هي مخاطرة لا يمكن تجاهلها.

وهنا يكمن دور الباحثين والأطباء العرب: ليس فقط في تطوير نماذج محلية تستند إلى بياناتنا؛ بل أيضاً في تدقيق النماذج المستوردة، والتأكد من صلاحيتها عبر تجارب مستقلة داخل بيئتنا السريرية. إن الاستثمار في قواعد بيانات عربية موسّعة -تشمل أطفالنا وشبابنا وكبار السن- لن يكون رفاهية؛ بل سيكون شرطاً أساسياً لضمان أن تكون «المستشفيات الذكية» ذكية فعلاً، معنا ولأجلنا.

بكلمة أخرى: نجاح الذكاء الاصطناعي في الرعاية الصحية العربية لن يُقاس بعدد الأجهزة المستوردة؛ بل بقدرتنا على تحويله إلى أداة تُعالج مريضاً في مكة كما تعالج مريضاً في مانشستر، دون تحيُّز أو قصور. وهنا تتجسد الأهمية الحقيقية لهذه الدروس: أن نكون صانعين للتقنية؛ لا مجرد مستخدمين لها.

إن الذكاء الاصطناعي في الطب أداة عظيمة تحمل وعوداً واسعة، ولكنها ليست بديلاً عن العقل النقدي ولا عن الطبيب البشري. فالإفراط في الثقة قد يكون خطراً بقدر ضعف الأداء، وبين هذين الحدَّين يكمن الطريق الآمن: علم رصين، وبيانات كافية، وتصميم صارم يجعل الخوارزميات جديرة بثقة المريض العربي تماماً، كما هي جديرة بثقة المريض الغربي.

إنَّ السؤال الحقيقي ليس: هل الذكاء الاصطناعي قادر على إنقاذ الأرواح؟ بل: هل نحن قادرون على استخدامه بوعي وحذر، لنضمن أن يبقى في خدمة الإنسان لا على حسابه؟

ولعل ما قاله ويليام شكسبير يصلح أن يكون مرآة لمرحلتنا: «الثقة المفرطة تُقرِّبنا من الخطر، كما يقرِّبنا الخوف المفرط منه». وبين هذين النقيضين، علينا أن نصوغ معادلة متوازنة تجعل الذكاء الاصطناعي سنداً للطب؛ لا عبئاً عليه.


مقالات ذات صلة

اكتشاف جين جديد يمنح أملاً في مواجهة عيوب القلب الخلقية

علوم اكتشاف جين جديد يمنح أملاً في مواجهة عيوب القلب الخلقية

اكتشاف جين جديد يمنح أملاً في مواجهة عيوب القلب الخلقية

في خطوة علمية قد تعيد رسم ملامح فهم أمراض القلب الخِلْقية، توصل باحثون من جامعة تارتو بإستونيا إلى اكتشاف جين جديد لم يكن مرتبطاً سابقاً بأي مرض بشري،

د. وفا جاسم الرجب (لندن)
صحتك قد يكون العلماء قد فتحوا الباب أمام طريقة جديدة لإعادة برمجة الجهاز المناعي، بحيث يصبح الجسم قادراً على إنتاج أجسام مضادة قوية ونادرة بشكل دائم، والاستجابة بسرعة أكبر عند التعرض للأمراض (رويترز)

دراسة: الجهاز المناعي يمكن إعادة برمجته لإنتاج أجسام مضادة نادرة

ربما يكون الباحثون قد توصلوا إلى طريقة جديدة لجعل الجسم يصنع البروتينات المفيدة بما في ذلك بعض الأجسام المضادة شديدة الفاعلية التي عادة ما يصعب إنتاجها.

«الشرق الأوسط» (لندن)
يوميات الشرق يُعدّ تراكم الغازات في الجهاز الهضمي السبب الأكثر شيوعاً لانتفاخ البطن (بيكساباي)

بين الطرافة والعلم… هل غازات النساء أشد رائحة أم الرجال؟

حسمت دراسة أن غازات النساء أشد رائحةً وتركيزاً، مقابل كميات أكبر لدى الرجال، مما يجعل التأثير متعادلاً عملياً، خصوصاً مع اختلاف السلوكيات اليومية.

«الشرق الأوسط» (لندن)
علوم "ابن سينا" وكيل ذكي يلخص

من يقرأ الطب اليوم... الطبيب أم الخوارزمية؟

في زمنٍ كان الطبيب فيه يقرأ ليعرف... إلا أنه أصبح اليوم يقرأ ليختار ما يتجاهل.

د. عميد خالد عبد الحميد (لندن)
علوم تحيز البيانات خطر خفي في الذكاء الاصطناعي الطبي

متى يجب على الطبيب ألا يعتمد على الذكاء الاصطناعي؟

تحوَّل الذكاء الاصطناعي خلال العقد الأخير، من أداة بحثية في مختبرات التكنولوجيا إلى عنصر متزايد الحضور في غرف التشخيص والعيادات الطبية حول العالم.

د. عميد خالد عبد الحميد (الرياض)

البحث المدعوم بالذكاء الاصطناعي يعاني … «مشكلة ثقة»

البحث المدعوم بالذكاء الاصطناعي يعاني … «مشكلة ثقة»
TT

البحث المدعوم بالذكاء الاصطناعي يعاني … «مشكلة ثقة»

البحث المدعوم بالذكاء الاصطناعي يعاني … «مشكلة ثقة»

استخدم ما يقرب من ثلثي البالغين الأميركيين أداة بحث مدعومة بالذكاء الاصطناعي خلال الأشهر الستة الماضية. ولكن الإحصائية المثيرة لمطوري هذه الأدوات: 15 في المائة فقط يقولون إنهم يثقون بالنتائج «ثقة تامة». وتُمثل هذه الفجوة بين الاستخدام والثقة التحدي الأكبر في المرحلة المقبلة من البحث المدعوم بالذكاء الاصطناعي. فالمستهلكون يُقبلون على هذه التقنية، لكنهم يُشككون في النتائج، كما كتب كريغ سالدانها (*).

وعلى مطوري هذه المنتجات، طرح سؤال مُحرج على أنفسهم: هل إنهم يصممون تجارب تكسب ثقة المستهلكين، وتستحقها؟

«حديقة مسوّرة»

تعاونت شركة Yelp مع Morning Consult لإجراء استطلاع رأي شمل أكثر من 2200 بالغ أميركي حول كيفية استخدامهم البحث المدعوم بالذكاء الاصطناعي ونظرتهم إليه. وتشير النتائج إلى مشكلة واحدة مُتكررة: يشعر المستهلكون بأنهم مُحاصرون.

أكثر من نصف المشاركين في الاستطلاع (51 في المائة) يقولون إن نتائج البحث المدعومة بالذكاء الاصطناعي تبدو وكأنها «حديقة مسوّرة» يصعب معها التحقق مما يقرأونه.

صعوبة التحقق من الإجابات

  • يقول 63 في المائة إنهم يتحققون من نتائج البحث المدعومة بالذكاء الاصطناعي بالرجوع إلى مصادر موثوقة أخرى، مثل مواقع الأخبار ومنصات التقييم.
  • ويشير 57 في المائة إلى أنهم أقل ميلاً لاستخدام البحث المدعوم بالذكاء الاصطناعي تحديداً لافتقاره إلى مصادر موثوقة.

في البدايات، أي في الأيام الأولى لعمليات البحث المدعوم بالذكاء الاصطناعي، اتسمت النتائج بالغموض، حيث كانت النماذج تُلفّق الإجابات بثقة. وتمكنت معظم المنصات الرائدة من حل هذه المشكلة التقنية إلى حد كبير. لكن ما زال هناك شك أعمق: ليس فقط «هل هذه الإجابة صحيحة؟»، بل «كيف لي أن أعرف؟»؛ إذ وعندما تُزيل المنصات المصادر والاقتباسات والروابط إلى المحتوى الواقعي الذي استندت إليه إجاباتها، فإنها تبني جدراناً لا جسوراً. يُعبّر المستهلكون بوضوح عن رغبتهم في الحصول على الروابط والمصادر والقدرة على التحقق بأنفسهم.

«فتح الأبواب» للبيانات الموثقة

يرسم الاستطلاع صورة متسقة بشكل ملحوظ لما يلزم، لسد فجوة الثقة.

يقول ما يقرب من ثلاثة أرباع المشاركين في الاستطلاع (72 في المائة) إن منصات الذكاء الاصطناعي يجب أن تُظهر دائماً مصدر معلوماتها.

  • يرغب ثلثا المشاركين (66 في المائة) في مزيد من الأدلة على المصادر الموثوقة، مثل روابط منصات التقييم ومواقع الأخبار، إلى جانب الإجابات التي يُقدمها الذكاء الاصطناعي.
  • بينما يقول أكثر من نصفهم (52 في المائة) إن الأدلة المرئية، مثل صور الطبق الغذائي، أو صور مصاحبة لطلباتهم، من شأنها أن تزيد من ثقتهم.

والمستهلكون ليسوا ضد الذكاء الاصطناعي، بل ضد الأنظمة المبهمة. إنهم يريدون أن يقوم الذكاء الاصطناعي بالعمل الشاق المتمثل في تحليل كميات هائلة من المعلومات ثم عرض النتائج.

لا يستخدم الشخص العادي الذكاء الاصطناعي لتحليل الشفرات أو غيرها من التطبيقات التقنية، بل يستخدمه في عمليات البحث المحلية اليومية.

استخدام محلّي يومي

  • يستخدم أكثر من نصف المشاركين في الاستطلاع (57 في المائة) أدوات الذكاء الاصطناعي للعثور على الشركات المحلية شهرياً على الأقل. إنهم يريدون نصائح حول مكان اصطحاب عائلاتهم لتناول عشاء عيد ميلاد أو اختيار من يسمحون له بدخول منزلهم لإصلاح أنبوب مياه متفجر؛ ولذا لن يكون ملخص الذكاء الاصطناعي المستقل دون دليل موثوق كافياً.

مصادر المعلومات

وعندما يلجأ المستهلكون إلى الذكاء الاصطناعي للمساعدة في اتخاذ هذه القرارات، تكون توقعاتهم واضحة لا لبس فيها:

  • 76 في المائة منهم يرون أن معرفة مصدر المعلومات أمرٌ بالغ الأهمية،
  • و73 في المائة يؤكدون على أهمية تقييمات وآراء الزبائن الحقيقيين

و76 في المائة يرون أهمية الاطلاع على مصادر موثوقة متعددة.

كما أن الشركات المحلية تتسم بطبيعتها بالديناميكية، حيث قد يرحل العاملون، وتتغير العروض (مثل انتقال الطهاة وتغيّر قوائم الطعام)، وتتغير ساعات العمل. لذا وبدون محتوى بشري أصيل ومُحدّث بانتظام من مصادر موثوقة، يُخاطر الذكاء الاصطناعي بتقديم معلومات قديمة أو غير موثوقة.

أجوبة جيل الإنترنت

وإذا كان أحدٌ يظن أن جيل الإنترنت، سيكون أكثر ثقة، فإن البيانات تُشير إلى عكس ذلك. يتمتع جيل الشباب بأعلى معدل استخدام:

  • استخدم 84 في المائة منهم منصة بحث تعتمد على الذكاء الاصطناعي خلال الأشهر الستة الماضية.
  • لكنهم أيضاً الأكثر تطلباً؛ إذ يقول 72 في المائة منهم إن منصات الذكاء الاصطناعي يجب أن تُقدّم المزيد من الأدلة على المصادر الموثوقة، مقارنةً بـ63 في المائة من جيل الألفية و59 في المائة من «جيل إكس» السابقين له.

إن هذا جيلٌ مُتشبّعٌ بمحتوى الذكاء الاصطناعي الرديء، وقد طوّر أفراده حساً أقوى في التمييز بين المعلومات الأصلية والمُصطنعة. لذا؛ تُخاطر المنصات التي تُبقي هذه الفئة من الجمهور داخل بيئة مغلقة، بفقدان الجيل الأكثر إلماماً بالذكاء الاصطناعي أولاً.

قصور الحُجّة المضادة

قد يجادل البعض بأن إضافة الاقتباسات والروابط ومؤشرات المصادر تخلق عوائق، وأن جوهر البحث المدعوم بالذكاء الاصطناعي يكمن في تقديم إجابة سلسة ومتكاملة. فلماذا إذن ندفع المستخدمين بعيداً عن منصتنا؟ لكن هذا الطرح يخلط بين القيود وقيمة ما يقدم.

لا يرفض المستهلكون الملخصات التي يُنشئها الذكاء الاصطناعي، بل يرفضون الإجابات التي لا يمكنهم التحقق منها.

  • غالبية المستهلكين (69 في المائة) يرغبون في خيار مغادرة منصات الذكاء الاصطناعي وزيارة مواقع موثوقة لإجراء بحوثهم الخاصة. وعندما اختبرنا ذلك عملياً، وعرضنا على المستهلكين نسختين من نتائج بحث الذكاء الاصطناعي، إحداهما بمصادر شفافة والأخرى من دونها، فضّل 80 في المائة النسخة التي تضمنت محتوى بشرياً أصيلاً ومصادر موثوقة وروابط قابلة للتنفيذ. إن إزالة القيود لا تُنفّر المستخدمين، بل تُعزز ثقتهم.

ربط الذكاء الاصطناعي بتجارب الواقع

يقف قطاع الذكاء الاصطناعي على مفترق طرق. ولن تكون المنصات الفائزة هي تلك التي تُنتج إجابات اصطناعية أكثر إقناعاً. بل ستكون هذه المنصات تلك التي تربط المستخدمين بسلاسة بتجارب حقيقية من العالم الواقعي، مستخدمةً الذكاء الاصطناعي جسراً إلى محتوى بشري موثوق.

مع نضوج منظومة الذكاء الاصطناعي، لن تقتصر المنصات التي تُحقق التوازن الأمثل بين الملخصات المُولّدة بالذكاء الاصطناعي والمحتوى البشري الشفاف والأصيل على سدّ فجوة الثقة فحسب، بل ستضع معياراً لما يتوقعه المستهلكون.

الشفافية تسهل اتخاذ القرارات

والخبر السار هو أن زيادة الروابط الشفافة والسخية تُعدّ مدًّا متصاعداً يُفيد الجميع: إذ يحصل المستهلكون على القدرة على إجراء أبحاثهم الخاصة واتخاذ قراراتهم بثقة، ويحصل مُنشئو المحتوى والناشرون على الزيارات التي تُحافظ على منظومة محتوى صحية، وتستفيد منصات الذكاء الاصطناعي نفسها من علاقات أقوى مع المصادر الموثوقة التي تجعل إجاباتها جديرة بالثقة في المقام الأول.

الشفافية ليست خياراً ثانوياً، بل هي أساس النجاح.

* مجلة «فاست كومباني»


ما السبب الحقيقي لفشل مبادرات الذكاء الاصطناعي في المؤسسات؟

ما السبب الحقيقي لفشل مبادرات الذكاء الاصطناعي في المؤسسات؟
TT

ما السبب الحقيقي لفشل مبادرات الذكاء الاصطناعي في المؤسسات؟

ما السبب الحقيقي لفشل مبادرات الذكاء الاصطناعي في المؤسسات؟

عندما طرح «تشات جي بي تي» في نوفمبر (تشرين الثاني) 2022، كان رد الفعل فورياً وقوياً: إنه يعمل! ولأول مرة، اختبر ملايين الأشخاص الذكاء الاصطناعي ليس بوصفه وعداً بعيد المنال، بل بوصفه شيئاً مفيداً وبديهياً. وحتى مع عيوبه، فقد ظهر أنه يتمتع بقدرات مذهلة.

حدس صحيح واستنتاج خاطئ

كان هذا الحدس صحيحاً. أما الاستنتاج الذي تلاه فكان خاطئاً. لأن ما ينجح ببراعة مع فرد أمام لوحة المفاتيح، أثبت عدم فاعليته بشكل مفاجئ داخل المؤسسة.

الشركات لا تُدار باللغة

بعد عامين، وبعد مليارات الدولارات من الاستثمارات، وعدد لا يحصى من التجارب، وتدفق مستمر من «المساعدين» الأذكياء، يتبلور واقع مختلف: الذكاء الاصطناعي التوليدي استثنائي في إنتاج اللغة... لكن الشركات لا تُدار باللغة: بل تُدار بالذاكرة والسياق والتغذية الراجعة والقيود.

وهذه هي الفجوة. ولهذا السبب تفشل الكثير من مبادرات الذكاء الاصطناعي في المؤسسات بهدوء. إذ حتى مع الانتشار الواسع، هناك تأثير محدود... وشعور متزايد بالتكرار.

فشل 95 % من المشاريع التجريبية

ليست هذه قصة عن تقنية فشلت في اكتساب زخم، بل على العكس تماماً.

وأظهر تحليل مدعوم من معهد ماساتشوستس للتكنولوجيا، والذي حظي باهتمام واسع، أن نحو 95 في المائة من المشاريع التجريبية للذكاء الاصطناعي التوليدي في المؤسسات تفشل في تحقيق نتائج ملموسة، حيث لا يصل سوى 5 في المائة منها إلى مرحلة الإنتاج المستدام. وتشير تغطيات أخرى للنتائج نفسها إلى النمط نفسه: تجارب مكثفة، وتحول محدود.

والتفسير واضح: المشكلة ليست في الحماس، ولا حتى في القدرة، بل في أن توظيف الأدوات لا يُترجم إلى تغيير عملي حقيقي... ليست هذه مشكلة للتبني، بل مشكلة هيكلية.

المفارقة المزعجة: ذكاء اصطناعي... لكن لا شيء يتغير

داخل معظم الشركات اليوم، يتعايش واقعان: من جهة، يستخدم الموظفون أدوات مثل «تشات جي بي تي» باستمرار. فهم يصيغون ويلخصون ويبتكرون ويسرّعون عملهم بطرق تبدو طبيعية وفعالة.

من جهة أخرى، تكافح مبادرات الذكاء الاصطناعي الرسمية في المؤسسات للتوسع خارج نطاق المشاريع التجريبية الخاضعة لرقابة دقيقة. يصف التحليل نفسه المتعلق بمعهد ماساتشوستس للتكنولوجيا فجوةً متزايدةً في «التعلم»: يجد الأفراد فائدة وقيمةً بسرعة، لكن المؤسسات تفشل في دمج هذه القيمة في سير العمل ذي الأهمية. والنتيجة هي ما يشبه «الذكاء الاصطناعي الخفي»: يستخدم الأفراد ما يُجدي نفعاً، بينما تستثمر الشركات فيما لا يُجدي.

الخطأ الأساسي: التعامل مع نموذج اللغة كنظام تشغيل

تركز معظم تفسيرات هذا الفشل على التنفيذ: بيانات غير دقيقة، حالات استخدام غير واضحة، نقص في التدريب. كل هذا صحيح، لكنه ثانوي.

المشكلة الحقيقية أبسط وأكثر جوهرية: نماذج اللغة الكبيرة مصممة للتنبؤ بالنصوص. هذا كل شيء. كل شيء آخر، من الاستدلال إلى التلخيص والمحادثة، إلخ، هو خاصية ناشئة عن هذه القدرة.

الأدوات الذكية التوليدية لا تعمل ضمن الواقع

لكن الشركات لا تعمل كسلاسل من النصوص. إنها تعمل كأنظمة متطورة ذات حالة وذاكرة وتوابع وحوافز وقيود... هذا هو التناقض. كما ذكرتُ سابقاً، هذا هو العيب البنيوي الأساسي للذكاء الاصطناعي: نماذج اللغة لا «ترى» العالم. فهي لا تحتفظ بحالة مستمرة. ولا تتعلم من ردود الفعل الواقعية إلا إذا صُممت خصيصاً لذلك... إنها تُنتج لغة مقنعة عن الواقع، لكنها لا تعمل ضمنه.

إجابات متميزة منفصلة عن النظام الفعلي

لا يمكنك إدارة شركة بناءً على تنبؤات الكلمات.اطلب من نموذج اللغة ما يلي:

-«زيادة مبيعاتي»

-«تصميم استراتيجية دخول السوق»

- «تحسين أداء الفريق»

وستحصل على إجابة. غالباً ما تكون جيدة جداً. إجابة منظمة، بليغة، ومقنعة. ولكنها منفصلة تماماً تقريباً عن النظام الفعلي الذي من المفترض أن تؤثر فيه.

وذلك لأن نموذج اللغة لا يستطيع تتبع مسار المبيعات، أو إدارة الحوافز، أو دمج بيانات إدارة علاقات العملاء، أو التكيف بناءً على النتائج. إذ يمكنه وصف استراتيجية، لكنه لا يستطيع تنفيذها.

وتؤكد نتائج معهد ماساتشوستس للتكنولوجيا هذه النقطة: أدوات الذكاء الاصطناعي التوليدي فعّالة في المهام الفردية المرنة، لكنها تعجز عن العمل في بيئات المؤسسات التي تتطلب التكيف والتعلم والتكامل. وبعبارة أخرى: يمكن للأداة الذكية كتابة المذكرة، لكنها لا تستطيع إدارة الشركة.

زيادة قدرات الحوسبة لن تحل المشكلة

كان ردّ فعل القطاع حتى الآن متوقعاً: بناء نماذج أكبر، ونشر بنية تحتية أوسع، وتوسيع نطاق كل شيء. لكن التوسع لا يُصلح خللاً في التصميم. إذا كان النظام يفتقر إلى أساس واقعي، فلن تُوفّر له المزيد من المعايير هذا الأساس. وإذا كان يفتقر إلى الذاكرة، فلن تُوفّر له المزيد من الرموز الذاكرة. وإذا كان يفتقر إلى حلقات التغذية الراجعة، فلن تُنشئها المزيد من مراكز البيانات.

يُضخّم التوسع ما هو موجود، لكنه لا يُنشئ ما هو مفقود. وما هو مفقود هنا ليس المزيد من اللغة، بل المزيد من العالم.

المرحلة المقبلة... نظم ذكية ضمن بيئات حقيقية

لن تُحدّد المرحلة التالية من الذكاء الاصطناعي المؤسسي بواجهات دردشة أفضل أو نماذج لغوية أكثر قوة، بل ستُحدّد بشيء آخر تماماً: أنظمة قادرة على الحفاظ على الحالة، والاندماج في سير العمل، والتعلم من النتائج، والعمل ضمن قيود.

أنظمة لا تُولّد نصوصاً فحسب، بل تعمل ضمن بيئات حقيقية. لهذا السبب؛ لن يُبنى مستقبل الذكاء الاصطناعي في الشركات على نماذج اللغة وحدها، بل على بنى تُدمجها ضمن نماذج أكثر ثراءً للواقع.

أقول ما يعرفه الكثيرون بالفعل... ولكن نادراً ما يقولونه: هناك زخم كبير، واستثمارات ضخمة، وسرديات كثيرة مبنية على فكرة أن توسيع نطاق نماذج اللغة سيحل كل شيء في النهاية. هذا لن يحدث.

فرصة حقيقية

هذه ليست نهاية الذكاء الاصطناعي المؤسسي، بل هي نهاية مفهوم خاطئ. فنماذج اللغة ليست بنية مؤسسية، بل هي طبقة واجهة. طبقة قوية، لكنها غير كافية بمفردها. الشركات التي تُدرك هذا أولاً لن تُحسّن فقط من استخدام الذكاء الاصطناعي، بل ستُنشئ شيئاً مختلفاً جذرياً.

مجلة «فاست كومباني»


الموظفون الأميركيون يستخدمون الذكاء الاصطناعي للتعلّم أثناء العمل

الموظفون الأميركيون يستخدمون الذكاء الاصطناعي للتعلّم أثناء العمل
TT

الموظفون الأميركيون يستخدمون الذكاء الاصطناعي للتعلّم أثناء العمل

الموظفون الأميركيون يستخدمون الذكاء الاصطناعي للتعلّم أثناء العمل

يتنافس الموظفون على تطوير مهاراتهم في الذكاء الاصطناعي. ووفقاً لتقرير جديد، فإنهم يستخدمونه أيضاً لتعزيز تعلمهم، سواءً كان ذلك لطلب مساعدة إضافية منه لتوضيح المفاهيم وحل المشكلات، أو لاكتساب مهارات جديدة، كما كتبت سارة بريغل (*).

تحسين المهارات

يستند التقرير إلى نتائج استطلاع أجرته شركة «فراكتل» لصالح الكلية الأميركية للتعليم (ACE)، شمل أكثر من 1000 موظف أميركي يستخدمون أدوات الذكاء الاصطناعي في عملهم اليومي.

وكما هو متوقع، تستخدم نسبة كبيرة من الموظفين الذكاء الاصطناعي لتحسين مهاراتهم. فقد أفاد 63 في المائة منهم بأنهم استخدموا الذكاء الاصطناعي لتعلم مهارات لم يتلقوا تدريباً رسمياً عليها من مؤسساتهم.

القلق من دقة المعلومات

ومع ذلك، أعرب 65 في المائة منهم عن قلقهم بشأن دقة الذكاء الاصطناعي. إلا أن 23 في المائة من الموظفين لا يزالون يعدّون الذكاء الاصطناعي خيارهم الأول عندما يحتاجون إلى تعلم شيء جديد.

فوائد سرعة الإجابات

قد يعود جزء من ذلك إلى سرعة توفير الذكاء الاصطناعي للإجابات: إذ قال ما يقرب من نصف الموظفين (46 في المائة) إنهم يستخدمون الذكاء الاصطناعي للبحث عن الإجابات لأنه أسرع من طلب المساعدة.

التعلّم سراً لتفادي الاتهامات بالجهل

وربما الأهم من ذلك، أن استخدام هذه التقنية يعني أيضاً أن الموظفين لا يضطرون إلى الاعتراف بجهلهم بشيء ما. فقد قال ما يقرب من ثلثهم (29في المائة) إنهم يستخدمون الذكاء الاصطناعي لتعلم مهارات جديدة دون الإفصاح عن ذلك. ويُعدّ المديرون أكثر عرضةً لهذا الأمر: إذ اعترف 32 في المائة منهم بأنهم يتعلمون سراً.

وبشكل عام، قال 69 في المائة من الموظفين إن استخدام الذكاء الاصطناعي حسّن إنتاجيتهم، وقال أكثر من 55 في المائة إنه ساعدهم على الشعور بمزيد من الثقة في وظائفهم.

الذكاء الاصطناعي نقطة انطلاق

ومع ذلك، فبينما يستخدم الموظفون الذكاء الاصطناعي بوضوح لسدّ فجوة ما، فإنهم ليسوا راضين تماماً عن قدراته التعليمية. فقد قال 7 في المائة فقط من الموظفين إنهم يشعرون بأن تعلم المهارات من الذكاء الاصطناعي كافٍ، وقال 39 في المائة إنهم يعدّون التدريب الذي يحصلون عليه من الذكاء الاصطناعي نقطة انطلاق لمزيد من التعلم.

الذكاء الاصطناعي يحفّز للانخراط في دورات تدريبية

أفاد ما يقارب نصف المشاركين (48 في المائة) بأنهم التحقوا بدورات تدريبية بعد أن عرّفهم الذكاء الاصطناعي على مواضيع معينة رغبوا في استكشافها بتعمق. والأكثر إثارة للإعجاب، أن 80 في المائة من العاملين أكدوا استمرارهم في التعلم بشكل أو بآخر بعد تعلمهم شيئاً ما باستخدام الذكاء الاصطناعي.

مع أن الذكاء الاصطناعي قد لا يحل محل التدريب العملي تماماً، فإنه يمثل حالياً نقطة انطلاق لغالبية العاملين الساعين لاكتساب مهارات جديدة.

* مجلة «فاست كومباني»