متى يجب على الطبيب ألا يعتمد على الذكاء الاصطناعي؟

إرشادات عالمية حول حالات تجنب الاستناد إليه في الممارسة الطبية

تحيز البيانات خطر خفي في الذكاء الاصطناعي الطبي
تحيز البيانات خطر خفي في الذكاء الاصطناعي الطبي
TT

متى يجب على الطبيب ألا يعتمد على الذكاء الاصطناعي؟

تحيز البيانات خطر خفي في الذكاء الاصطناعي الطبي
تحيز البيانات خطر خفي في الذكاء الاصطناعي الطبي

تحوَّل الذكاء الاصطناعي خلال العقد الأخير، من أداة بحثية في مختبرات التكنولوجيا إلى عنصر متزايد الحضور في غرف التشخيص والعيادات الطبية حول العالم. فأنظمة التعلم العميق أصبحت قادرة على تحليل صور الأشعة بدقة عالية، واكتشاف الأورام في مراحل مبكرة، والتنبؤ ببعض الأمراض قبل ظهور أعراضها؛ بل وحتى اقتراح مسارات علاجية محتملة، اعتماداً على تحليل كميات هائلة من البيانات الطبية.

حدود الذكاء الاصطناعي

• حدود واضحة لتوظيف الذكاء الاصطناعي. غير أن هذا التقدم السريع يطرح سؤالاً بالغ الأهمية في الممارسة الطبية المعاصرة: متى يجب على الطبيب ألا يعتمد على الذكاء الاصطناعي؟

فمع توسع استخدام هذه التقنيات بدأت المؤسسات الصحية الدولية في وضع حدود واضحة لاستخدامها. وقد أصدرت جهات تنظيمية كبرى مثل منظمة الصحة العالمية وهيئات تنظيم الدواء في الولايات المتحدة وأوروبا وبريطانيا، إرشادات تؤكد أن الذكاء الاصطناعي يمكن أن يكون أداة قوية لدعم الرعاية الصحية، ولكنه لا ينبغي أن يتحول إلى بديل عن الحكم السريري أو المسؤولية الطبية.

ولهذا بدأت الأدبيات العلمية والتنظيمية في تحديد حالات محددة يصبح فيها استخدام الذكاء الاصطناعي غير مناسب، أو حتى غير آمن في رعاية المرضى.

• بين الأداة والسلطة: المبدأ الأساسي الذي تتفق عليه الهيئات الصحية الدولية بسيط وواضح: الذكاء الاصطناعي أداة تحليل متقدمة، ولكنه ليس سلطة طبية. فهذه الأنظمة قادرة على معالجة كميات هائلة من البيانات الطبية، واكتشاف أنماط قد يصعب على الإنسان ملاحظتها، ولكنها لا تملك القدرة على تحمل المسؤولية الطبية، أو فهم جميع أبعاد الحالة الإنسانية للمريض.

إن القرار الطبي لا يعتمد فقط على تحليل البيانات أو قراءة الصور الطبية؛ بل يشمل أيضاً الخبرة السريرية للطبيب، وفهم التاريخ الصحي للمريض، والظروف الاجتماعية والنفسية التي قد تؤثر في التشخيص والعلاج. ولهذا تؤكد الإرشادات الدولية في أخلاقيات الذكاء الاصطناعي الطبي، أن دور هذه الأنظمة يجب أن يبقى في إطار دعم القرار الطبي لا استبداله.

وفي هذا السياق، بدأت الهيئات الصحية والتنظيمية في تحديد الحالات التي ينبغي فيها استخدام الذكاء الاصطناعي بحذر، أو حتى تجنب الاعتماد عليه في رعاية المرضى.

التوصيات الدولية

تشير الإرشادات الدولية الحديثة إلى أن استخدام الذكاء الاصطناعي في الرعاية الصحية يجب أن يتم ضمن حدود واضحة، تضمن سلامة المرضى واستقلال القرار الطبي. فقد أكدت منظمة الصحة العالمية في توصياتها حول أخلاقيات الذكاء الاصطناعي في الصحة، الصادرة عام 2021، والمحدَّثة لاحقاً في تقارير الصحة الرقمية، وكذلك الجمعية الطبية الأميركية في إرشاداتها بشأن استخدام الذكاء الاصطناعي في الممارسة الطبية، أن هذه الأنظمة يمكن أن تكون أدوات قوية لدعم التشخيص والعلاج، ولكنها يجب ألا تُستخدم في جميع الحالات ولا أن تحل محل الحكم السريري للطبيب.

ولهذا بدأت الأدبيات الطبية والتنظيمية في تحديد حالات واضحة، يصبح فيها استخدام الذكاء الاصطناعي غير مناسب أو حتى غير آمن في رعاية المرضى. وفي ضوء هذه التوصيات يمكن تلخيص أبرز الحالات التي ينبغي فيها تجنب الاعتماد على الذكاء الاصطناعي في الممارسة الطبية في 10 حالات رئيسية.

• الحالة الأولى- عندما لا يكون النظام مثبَتاً علمياً: القاعدة الأساسية في الطب الحديث هي أن أي تقنية جديدة يجب أن تخضع لتقييم علمي صارم، قبل استخدامها في رعاية المرضى. وينطبق ذلك بصورة خاصة على أنظمة الذكاء الاصطناعي الطبية. فالنماذج التي لم تُختبر في دراسات علمية منشورة في مجلات محكَّمة، أو لم تُقيَّم في تجارب سريرية حقيقية، أو لم تحصل على اعتماد الجهات التنظيمية المختصة، لا ينبغي الاعتماد عليها في اتخاذ قرارات تشخيصية أو علاجية. فسلامة المرضى تتطلب أن تُثبت هذه الأنظمة دقتها وموثوقيتها قبل إدخالها إلى الممارسة الطبية.

• الحالة الثانية- عندما لا تمثل البيانات المرضى الحقيقيين: تعتمد أنظمة الذكاء الاصطناعي في عملها على البيانات التي دُرِّبت عليها. وإذا كانت هذه البيانات لا تمثل الفئات السكانية التي سيُستخدم النظام معها، فقد يؤدي ذلك إلى أخطاء تشخيصية أو تحيزات طبية خطيرة. فالنظام الذي طُوِّر اعتماداً على بيانات مرضى من منطقة أو فئة سكانية معينة، قد لا يعطي النتائج نفسها عند استخدامه مع مرضى من خلفيات جينية أو بيئية مختلفة. ولهذا يؤكد الخبراء ضرورة التأكد من أن بيانات التدريب تعكس تنوع المرضى في الواقع الطبي.

• الحالة الثالثة- عندما يصبح القرار (صندوقاً أسود): إحدى القضايا التي تثير نقاشاً واسعاً في الذكاء الاصطناعي الطبي، هي ما تُعرف بمشكلة «الصندوق الأسود». ففي بعض الأنظمة المتقدمة قد تقدم الخوارزمية نتيجة أو توصية طبية من دون أن يكون من الواضح كيف وصلت إلى هذا الاستنتاج.

وفي الممارسة الطبية، لا يكفي أن يكون القرار صحيحاً من الناحية التقنية؛ بل يجب أن يكون قابلاً للفهم والتفسير. فالأطباء يحتاجون إلى معرفة الأسس التي بُني عليها التقييم الطبي، حتى يتمكنوا من مراجعته ومقارنته بالمعطيات السريرية للمريض. ولهذا تحذِّر كثير من الإرشادات الطبية من الاعتماد على أنظمة ذكاء اصطناعي لا توفر درجة كافية من الشفافية في طريقة عملها، أو تفسير نتائجها.

القرار الطبي يبقى بيد الطبيب، لا بيد الخوارزمية

تعارض مع الحكم السريري

• الحالة الرابعة- عندما يتعارض مع الحكم السريري: قد تقدم أنظمة الذكاء الاصطناعي في بعض الحالات توصية أو تقييماً يختلف عن تقدير الطبيب السريري. وفي مثل هذه الحالات تؤكد الإرشادات الدولية أن القرار الطبي النهائي يجب أن يبقى بيد الطبيب. فالخوارزميات تعتمد على تحليل البيانات والأنماط الإحصائية، بينما يستند الحكم السريري إلى خبرة الطبيب وفهمه الكامل لحالة المريض وسياقها الطبي والإنساني. لذلك عندما يحدث تعارض بين توصية النظام الذكي وتقييم الطبيب، يجب التعامل مع مخرجات الذكاء الاصطناعي بوصفها أداة مساعدة للمراجعة، لا بديلاً عن القرار الطبي المسؤول.

• الحالة الخامسة- عندما يُستخدم النظام خارج نطاقه: تُطوَّر أنظمة الذكاء الاصطناعي في الطب عادة لأداء مهام محددة بدقة، مثل تحليل صور الأشعة أو المساعدة في تشخيص حالة معينة. وعندما يُستخدم النظام خارج المجال الذي صُمم من أجله، فقد يؤدي ذلك إلى نتائج أو توصيات غير دقيقة. ولهذا تؤكد الإرشادات التنظيمية أن استخدام أنظمة الذكاء الاصطناعي يجب أن يقتصر على الغرض الطبي الذي طُوِّرت واختُبرت من أجله؛ لأن تجاوز هذا النطاق قد يعرِّض سلامة القرار الطبي للخطر.

• الحالة السادسة- عندما يصبح النظام قديماً: مثل أي نظام تقني آخر، قد تفقد أنظمة الذكاء الاصطناعي الطبية جزءاً من دقتها مع مرور الوقت. ويحدث ذلك لأن البيانات الطبية والأنماط المرضية تتغير باستمرار، وهو ما يسميه الباحثون أحياناً «تدهور النموذج». ولهذا تؤكد الهيئات الصحية الدولية أن هذه الأنظمة يجب أن تخضع لمراقبة مستمرة وتحديثات دورية، لضمان بقائها دقيقة وآمنة. أما الاعتماد على نظام لم يُحدَّث أو لم تُراجع نتائجه منذ فترة طويلة، فقد يؤدي إلى قرارات طبية أقل دقة مما يُتوقع من التكنولوجيا نفسها.

غياب الشفافية والحوكمة الطبية

• الحالة السابعة- عندما تغيب الشفافية: تعتمد الثقة في أي نظام طبي على وضوح طريقة عمله وحدود استخدامه. فإذا لم تكشف الشركات المطورة عن مصادر البيانات التي دُرِّب عليها النظام، أو عن معدلات الخطأ المحتملة، أو عن الحالات التي قد يفشل فيها، يصبح من الصعب على الأطباء تقييم مدى موثوقية هذه التقنية. ولهذا تؤكد الإرشادات التنظيمية أن الشفافية شرط أساسي لاستخدام الذكاء الاصطناعي في الرعاية الصحية؛ لأن القرار الطبي لا يمكن أن يُبنى على نظام لا يعرف الطبيب حدوده ولا نقاط ضعفه.

• الحالة الثامنة- عندما يرفض المريض استخدامه: يُعد مبدأ الموافقة المستنيرة أحد الأسس الأخلاقية في الطب الحديث. ولذلك من حق المريض أن يعرف ما إذا كانت أنظمة الذكاء الاصطناعي تُستخدم في تشخيص حالته أو دعم قرارات علاجه. كما يحق له أيضاً أن يرفض استخدام هذه التقنيات إذا لم يشعر بالارتياح لها. وفي مثل هذه الحالات يجب احترام قرار المريض؛ لأن العلاقة الطبية تقوم في جوهرها على الثقة والشفافية بين الطبيب والمريض.

• الحالة التاسعة- عندما تغيب الحوكمة الطبية: أي عندما لا يكون هناك نظام واضح للمساءلة ولا لمتابعة أداء النظام الذكي داخل المؤسسة الصحية. فالاستخدام الآمن للذكاء الاصطناعي يتطلب وجود آليات رقابية واضحة تضمن مراجعة نتائجه وتحديد المسؤولية في حال حدوث أخطاء.

• الحالة العاشرة- عندما لا تتوفر حماية كافية للبيانات:

إذا لم يكن النظام يضمن حماية البيانات الطبية وخصوصية المرضى وفق المعايير التنظيمية المعتمدة. فالبيانات الصحية تعد من أكثر المعلومات حساسية، وأي استخدام للذكاء الاصطناعي يجب أن يلتزم بأعلى معايير الأمن الرقمي وحماية الخصوصية.

عندما تصبح الخوارزمية صندوقا أسود

بحوث حديثة... ومعايير الأخلاقيات السعودية

• ماذا تقول البحوث الحديثة؟ : تشير الدراسات العلمية الحديثة إلى أن نجاح استخدام الذكاء الاصطناعي في الطب لا يعتمد فقط على دقة الخوارزميات؛ بل أيضاً على درجة الثقة التي يضعها الأطباء والمرضى في هذه الأنظمة.

ففي دراسة علمية نُشرت في يناير (كانون الثاني) 2025 في مجلة «جورنال أوف ميديكال إنترنت ريسيرتش» (Journal of Medical Internet Research) حول العوامل المؤثرة في الثقة بأنظمة دعم القرار الطبي المعتمدة على الذكاء الاصطناعي، توصل الباحثون إلى أن الأطباء يميلون إلى استخدام هذه الأنظمة عندما تكون نتائجها قابلة للتفسير، وعندما تكون خاضعة لتقييم علمي واضح. كما أظهرت الدراسة أن الثقة بالذكاء الاصطناعي ترتبط بشكل وثيق بوجود إشراف طبي مباشر على القرار النهائي، وهو ما يعزز فكرة أن هذه التقنيات يجب أن تعمل كأدوات دعم للقرار الطبي لا كبديل عن الحكم السريري للطبيب.

المعايير الأخلاقية للذكاء الاصطناعي في السعودية:

في المملكة العربية السعودية، أصدرت «الهيئة السعودية للبيانات والذكاء الاصطناعي» (سدايا) إطاراً وطنياً لأخلاقيات الذكاء الاصطناعي، يُعد من أبرز الأطر التنظيمية في المنطقة لتنظيم استخدام هذه التقنيات في مختلف القطاعات، بما في ذلك الرعاية الصحية. ويرتكز هذا الإطار على مجموعة من المبادئ الأساسية، من بينها: العدالة، والشفافية، والمسؤولية، وحماية الخصوصية، وضمان سلامة الاستخدام.

ويؤكد هذا الإطار التنظيمي أن استخدام الذكاء الاصطناعي في المجال الصحي يجب أن يهدف إلى دعم القرار السريري للطبيب، وتعزيز جودة الرعاية الطبية، لا أن يحل محل الحكم الطبي أو المسؤولية المهنية للطبيب. ويتماشى هذا التوجه مع المعايير الدولية التي تشدد على أن الذكاء الاصطناعي أداة مساعدة لتحليل البيانات الطبية، بينما تبقى المسؤولية النهائية عن القرار العلاجي بيد الطبيب.


مقالات ذات صلة

دراسة: الجهاز المناعي يمكن إعادة برمجته لإنتاج أجسام مضادة نادرة

صحتك قد يكون العلماء قد فتحوا الباب أمام طريقة جديدة لإعادة برمجة الجهاز المناعي، بحيث يصبح الجسم قادراً على إنتاج أجسام مضادة قوية ونادرة بشكل دائم، والاستجابة بسرعة أكبر عند التعرض للأمراض (رويترز)

دراسة: الجهاز المناعي يمكن إعادة برمجته لإنتاج أجسام مضادة نادرة

ربما يكون الباحثون قد توصلوا إلى طريقة جديدة لجعل الجسم يصنع البروتينات المفيدة بما في ذلك بعض الأجسام المضادة شديدة الفاعلية التي عادة ما يصعب إنتاجها.

«الشرق الأوسط» (لندن)
يوميات الشرق يُعدّ تراكم الغازات في الجهاز الهضمي السبب الأكثر شيوعاً لانتفاخ البطن (بيكساباي)

بين الطرافة والعلم… هل غازات النساء أشد رائحة أم الرجال؟

حسمت دراسة أن غازات النساء أشد رائحةً وتركيزاً، مقابل كميات أكبر لدى الرجال، مما يجعل التأثير متعادلاً عملياً، خصوصاً مع اختلاف السلوكيات اليومية.

«الشرق الأوسط» (لندن)
علوم "ابن سينا" وكيل ذكي يلخص

من يقرأ الطب اليوم... الطبيب أم الخوارزمية؟

في زمنٍ كان الطبيب فيه يقرأ ليعرف... إلا أنه أصبح اليوم يقرأ ليختار ما يتجاهل.

د. عميد خالد عبد الحميد (لندن)
علوم كيف ألهمت طفرة جينية نادرة علاجاً جديداً لالتهاب الأمعاء؟

كيف ألهمت طفرة جينية نادرة علاجاً جديداً لالتهاب الأمعاء؟

كشفت دراسة علمية حديثة عن مقاربة علاجية واعدة لداء كرون والتهاب القولون التقرّحي، تعتمد على محاكاة تأثير نسخة جينية نادرة واقية تُخفّف الالتهاب المزمن في الأمعا

د. وفا جاسم الرجب (لندن)
علوم رؤى علمية رائدة لعلاج العمى الوراثي

رؤى علمية رائدة لعلاج العمى الوراثي

لطالما اعتُبرت أمراض تنكّس الشبكية الوراثية، وهي مجموعة من أمراض العين الناتجة عن خلل جيني، من الأسباب الرئيسة لفقدان البصر الشديد لدى البالغين في سنّ العمل.

د. وفا جاسم الرجب (لندن)

نظم ذكاء اصطناعي... لجميع اللغات والثقافات

نظم ذكاء اصطناعي... لجميع اللغات والثقافات
TT

نظم ذكاء اصطناعي... لجميع اللغات والثقافات

نظم ذكاء اصطناعي... لجميع اللغات والثقافات

لطالما رغب المبرمج المصري عاصم صبري في نموذج ذكاء اصطناعي يُمثل ثقافته. لكن المشكلة تكمن في عدم عثوره على نموذج مثل هذا. ويقول صبري: «صناعة الذكاء الاصطناعي في مصر... غير موجودة». لذا قام ببناء نموذجه الخاص: «حورس»، نسبةً إلى إله السماء المصري القديم.

«حورس» على منصة «Hugging Face»

«حورس» للذكاء الاصطناعي

يقول صبري إن الهدف كان التوقف عن «الاعتماد على نماذج أخرى، مثل النماذج الأميركية أو الصينية»، والتوجه بدلاً من ذلك عن شكل النموذج الذي يُركز بشكل أكبر على الثقافة المصرية. ولجعل «حورس» يعمل، قام بتدريبه باستخدام وحدات معالجة الرسومات من «غوغل كولاب» Google Colab ومزودي خدمات سحابية آخرين، إلى جانب مجموعات بيانات مفتوحة المصدر. وقد حقق النموذج، الذي تم إصداره في أوائل أبريل (نيسان) الحالي، أكثر من 800 عملية تنزيل في أسبوعه الأول على منصة «Hugging Face».

انحصار لغوي

ويُعدّ صبري واحداً من بين عدد متزايد من المطورين الذين يسعون لتصحيح خللٍ مزمن في مجال الذكاء الاصطناعي. فالنماذج تتقن الإنجليزية، وإلى حدٍّ أقل، الصينية، لكنها أقل كفاءةً بكثير في معظم اللغات الأخرى. واللغات التي تُصنّف على أنها لغات أقلية، هي في الواقع لغات الأغلبية العالمية. ومع ذلك، وبفضل طريقة تدريب النماذج (على كميات هائلة من البيانات المُستخرجة من الإنترنت)، بالإضافة إلى اقتصاديات صناعة التكنولوجيا، تبقى الإنجليزية هي اللغة المهيمنة.

فجوة اللغات

في عام 2023، نشرت الباحثة علياء بهاتيا، بالتعاون مع زميل لها في مركز الديمقراطية والتكنولوجيا، دراسةً تُشير إلى أن اللغات غير القياسية «ضاعت في الترجمة» بسبب تأثيرات التنعيم والحوافز التجارية التي تُشكّل شركات التكنولوجيا الكبرى. ففي خضمّ التهافت على الاستفادة من الذكاء الاصطناعي، أعطت الشركات الأولوية لدعم اللغة الإنجليزية، ويعود ذلك جزئياً إلى محدودية بيانات التدريب، ولم تبذل جهداً يُذكر لسدّ هذه الفجوة.

لسنوات، عزّزت الاعتبارات الاقتصادية هذه المشكلة. فتدريب نماذج الذكاء الاصطناعي مُكلف، ولا تملك الشركات حافزاً يُذكر لتطوير نماذج تدعم مجموعات لغوية أصغر حجماً دون عائد واضح.

نماذج محلية

وقد بدأ هذا الوضع بالتغيّر أخيراً، أدى صعود نماذج الذكاء الاصطناعي المحلية، بالتزامن مع تشديد شركات الذكاء الاصطناعي الكبرى لحدود الرموز الرقمية، إلى فتح المجال أمام الشركات الصغيرة. يقول صبري: «قبل عامين، لم يكن الذكاء الاصطناعي بمثل هذه الكفاءة، ولم تكن نماذج الذكاء الاصطناعي مفتوحة المصدر. أما الآن، فيمكننا بناء نماذجنا الخاصة من الصفر».

ومع ذلك، لا تزال هناك عقبات. وتشير بهاتيا إلى أن «بعض العوائق لا تزال قائمة فيما يتعلق بالحوسبة، والبنية التحتية، والتمويل»، وهو ما يمثل مجتمعاً «عائقاً كبيراً». ومع ذلك، فإن التقدم واضح.

من اميركا اللاتينية إلى آسيا

وما يتبلور ليس نظاماً بيئياً رسمياً بقدر ما هو شبكة عالمية غير رسمية من النماذج ذات التركيز المحلي: Apertus السويسرية، و Latam-GPT في أميركا اللاتينية، وN-ATLaS النيجيرية، و Sahabat-AI الإندونيسية، وSEA-LION السنغافورية، وGreenMind الفيتنامية، وOpenThaiGPT التايلاندية، وTeuken 7B الأوروبية. يقدم كل منها بديلاً للنماذج السائدة من «أوبن إيه آي» و«أنثروبيك» و«علي بابا».

جهود شعبية

لا تزال بعض الجهود شعبية، مثل جهود صبري. بينما تحظى جهود أخرى بدعم مؤسسي. وعلى سبيل المثال، يُعدّ مشروع «أبيرتوس» ثمرة تعاون بين جامعتين سويسريتين والمركز الوطني السويسري للحوسبة الفائقة، الذي ساهم بأكثر من 10 ملايين ساعة معالجة رسومية، أي ما يعادل عشرات الملايين من الدولارات في الحوسبة التجارية.

إلا أن معظم المشاريع تعمل على نطاق أصغر بكثير من ذلك. ومع ذلك، فإن القدرة على تدريب ونشر نماذج محلية بتكلفة منخفضة نسبياً تُغيّر قواعد اللعبة. فقد سجّلت نسخة مُحسّنة من برنامج «لاما 3.2» التابع لشركة «ميتا»، الذي تم تدريبه على 14,500 زوج من الأمثلة القانونية الهندية، ما يزيد قليلاً على 1000 عملية تنزيل منذ أوائل أبريل (نيسان). وهذا جانب مُتخصص، لكنه ذو أهمية. وكان من الصعب تبرير الاستثمار فيه اقتصادياً حتى وقت قريب.

توسيع السوق

يشير هذا الإقبال المبكر إلى وجود سوق أوسع من السوق السائد. كما أنه يطرح تساؤلاً أمام كبرى شركات الذكاء الاصطناعي. تقول بهاتيا: «ما تقدمه هذه البدائل هو دليل على إمكانية بناء أنظمة تمثل بشكل أفضل أغلبية المستخدمين واللغات في العالم، طالما أن شركات الذكاء الاصطناعي الكبرى ترغب فعلاً في الاستفادة من هذه التجارب والتعلم منها».

* مجلة «فاست كومباني».


«الذكاء المُتذبذب» أهم سمات الذكاء الاصطناعي

«الذكاء المُتذبذب» أهم سمات الذكاء الاصطناعي
TT

«الذكاء المُتذبذب» أهم سمات الذكاء الاصطناعي

«الذكاء المُتذبذب» أهم سمات الذكاء الاصطناعي

لطالما قورن الذكاء الاصطناعي بالذكاء البشري، لكن هذه المقارنة قد لا تكون الأنسب؛ فما يُجيده الذكاء الاصطناعي حالياً يُمكن أن يُساعد في التنبؤ بالوظائف التي قد يحلّ محلّها.

تلميذ رياضيات متفوق

يمكنك أن تقول اليوم ما تريد عن إمكانية وصول الذكاء الاصطناعي يوماً ما إلى ذكاء الإنسان. على سبيل المثال أصبح الذكاء الاصطناعي بالفعل تلميذاً مُتفوقاً في الرياضيات؛ ففي الصيف الماضي، أجاب نظام ذكاء اصطناعي من تطوير «غوغل» و«أوبن إيه آي» إجابة صحيحة على خمسة من أصل ستة أسئلة مُعقدة في أولمبياد الرياضيات الدولي، وهي مُسابقة سنوية لأفضل طلاب المدارس الثانوية في العالم.

قصور وسذاجة

مع ذلك، قد يكون المنطق السليم للذكاء الاصطناعي ما زال قاصراً بعض الشيء؛ فبعد بضعة أشهر، لاحظ أنورادها ويرامان، مهندس برمجيات في سريلانكا، أن أنظمة الذكاء الاصطناعي الرائدة تُعاني في الإجابة عن سؤالٍ بسيطٍ للغاية، قد يبدو مُضحكاً للبعض. فعندما أخبر عدداً من برامج الدردشة الآلية أنه بحاجة إلى أخذ سيارته بهدف تصليحها في ورشة تبعد 50 متراً فقط، وسألها إن كان عليه المشي أم القيادة، نصحته البرامج بالمشي!

«الذكاء المتذبذب»

إنّ الطريقة الغريبة التي يبدو بها الذكاء الاصطناعي عبقرياً في لحظة، وغبياً في أخرى، هي ما يُطلِق عليه الباحثون والمهندسون والاقتصاديون مصطلح «الذكاء المتذبذب» (jagged intelligence) (حرفياً «الذكاء المسنّن» أي غير الانسيابي - المحرِّر) . وهم يستخدمون هذا المصطلح لتفسير سبب تقدّم الذكاء الاصطناعي بسرعة في بعض المجالات، كالرياضيات وبرمجة الحاسوب، بينما لا يزال يُكافح لتحقيق تقدّم في مجالات أخرى.

قد يُساعد هذا المصطلح، الشائع الاستخدام بين مُطوّري الذكاء الاصطناعي ومُحلّلي آثاره، في إعادة صياغة النقاش الدائر حول ما إذا كانت هذه الأنظمة تُصبح بذكاء البشر، أو حتى أذكى منهم.

أفضل... وأقل ذكاء

ويرى الباحثون أن الذكاء الاصطناعي شيء مختلف تماماً؛ فهو أفضل بكثير من البشر في بعض المهام، وأقل ذكاءً بكثير في مهام أخرى. كما يُمكن أن يُساعد فهم نقاط القوة والضعف هذه الاقتصاديين على فهم أفضل لما يعنيه الذكاء الاصطناعي لمستقبل العمل؛ إذ وبينما يوجد سببٌ للقلق لدى المُبرمجين المبتدئين بشأن وظائفهم على سبيل المثال، فليس من الواضح - على الأقل في الوقت الراهن - كيف سيؤثر الذكاء الاصطناعي على أنواع العمل الأخرى.

لكن مُراقبة المجالات التي يبدأ فيها الذكاء الاصطناعي بتحقيق تحسينات سريعة قد تُساعد في التنبؤ بأنواع الوظائف التي ستتأثر بهذه التقنية.

وقال ويرامان: «يختلف أداء هذه الأنظمة، وليس من السهل التنبؤ بموعد عجزها عن أداء مهام يستطيع الإنسان القيام بها».

الدماغ البشري: ترابط المعارف وقدرات حل المشكلات

وقد صاغ مصطلح «الذكاء المتذبذب» أندريه كارباثي، أحد الباحثين المؤسسين لشركة «أوبن ايه آي»، والرئيس السابق لقسم تكنولوجيا القيادة الذاتية في شركة «تسلا»، وأحد أبرز المعلقين على صعود الذكاء الاصطناعي على وسائل التواصل الاجتماعي. وكتب على وسائل التواصل الاجتماعي عام 2024: «بعض الأشياء تعمل بكفاءة عالية (وفقاً للمعايير البشرية)، بينما تفشل بعضها الآخر فشلاً ذريعاً (أيضاً وفقاً للمعايير البشرية)، وليس من السهل دائماً التمييز بينهما».

وكتب أن هذا يختلف عن الدماغ البشري، «حيث تترابط كثير من المعارف وقدرات حل المشكلات ترابطاً وثيقاً وتتحسن بشكل خطي معاً، من الولادة إلى البلوغ».

التأثير على الوظائف

منذ أن بدأت «أوبن أيه آي» في مجال الذكاء الاصطناعي. مع ازدهار قطاع التكنولوجيا في عام 2022، تذبذبت تصريحات المسؤولين التنفيذيين في شركات التكنولوجيا بين التحذير من أن ابتكاراتهم الجديدة قد يكون لها تأثير مدمّر على وظائف ذوي الياقات البيضاء، والتقليل من شأن تأثيرها طويل الأمد على التوظيف.

حتى الآن، وخارج قطاع التكنولوجيا، لا توجد سوى أدلّة متفرقة تشير إلى أن الذكاء الاصطناعي أصبح سبباً في فقدان الوظائف. ولكن بالنظر إلى سرعة تطور هذه التكنولوجيا، يرى العديد من خبراء التكنولوجيا أن مسألة استبدال الذكاء الاصطناعي لأنواع أخرى من العاملين في وظائف ذوي الياقات البيضاء ليست مسألة «هل سيحدث ذلك؟»، بل «متى سيحدث؟».

قبل بضع سنوات فقط، كانت هذه الأنظمة لا تزال في بداياتها، تُظهر مهارات برمجية بدائية للغاية. يقول أليكس إيماس، الخبير الاقتصادي في كلية بوث للأعمال بجامعة شيكاغو: «لقد شهدت هذه الأنظمة تحسينات هائلة. في كل مرة يُطرَح فيها إصدار جديد رئيسي، يُفاجأ الناس بقدراته الهائلة». لكن التكنولوجيا التي تُضيف إلى ما يمكن للعاملين القيام به دون استبدالهم لها سوابق كثيرة، وهذا ما يتوقعه بعض باحثي الذكاء الاصطناعي والاقتصاديين.

أهمية العنصر البشري

منذ ستينات القرن الماضي، كانت الآلة الحاسبة الجيبية قادرة على الجمع والطرح والضرب بسرعة تفوق سرعة الإنسان بكثير. لكن هذا لم يكن يعني أن الآلة الحاسبة يمكن أن تحل محل المحاسب. أما الآن؛ فبإمكان أنظمة مثل «كلود» من أنثروبيك و«كودكس» من «أوبن إيه آي» كتابة برامج حاسوبية بسرعة أكبر بكثير أيضاً. لكنها لا تجيد فهم كيفية اندماج كل جزء من الرموز الكومبيوترية في تطبيق برمجي أكبر؛ فهي تحتاج إلى مساعدة بشرية في ذلك.

يقول الدكتور إيماس: «إذا كانت الوظيفة تتضمن مجموعة من المهام المختلفة - ومعظم الوظائف كذلك - فستتم أتمتة بعض المهام، بينما لن تُؤتمت أخرى. وفي هذه الحالة، قد يتوفر للعامل وقت أطول للقيام بأمور أهم».

في الشهر الماضي، أطلق فرانسوا شوليه، الباحث البارز في مجال الذكاء الاصطناعي، اختباراً رقمياً جديداً يُسمى «ARC-AGI 3»، ويطلب الاختبار حلولاً لمئات الألغاز الشبيهة بالألعاب دون تقديم أي تعليمات لحلها. يستطيع أي شخص عادي غير مُدرَّب حل جميع الألغاز، لكن أنظمة الذكاء الاصطناعي الرائدة تعجز عن إتقان أي منها، وفقاً لاختبارات أجراها شوليه.

يقول خبراء مثل شوليه إنه بمجرد أن يُدرك الناس أن الذكاء الاصطناعي ذكاء غير مُتطوّر، فإنهم يُطوّرون فهماً أفضل لكيفية تطوّر الذكاء الاصطناعي في السنوات المقبلة، وما قد يكون له من تأثير على سوق العمل. ويقول الدكتور إيماس: «سيعتمد هذا على المهام التي يُؤتمتها، وكيف ومتى».

حدود نتاجات الذكاء الاصطناعي

إن نظم الذكاء الاصطناعي، مثل «كلود» و«تشات جي بي تي» تتعلم مهاراتها، من خلال تحديد الأنماط في البيانات الرقمية، بما في ذلك مقالات ويكيبيديا، والأخبار، وبرامج الحاسوب، وغيرها من النصوص المُجمّعة من الإنترنت.. لكن هذا لا يكفي.

لا تُمثّل الإنترنت سوى جزء ضئيل من المعرفة البشرية، فهي تُسجّل ما يفعله الناس في العالم الرقمي، ولكنها تحتوي على معلومات قليلة نسبياً عمّا يحدث في العالم المادي.

لا تخطيط ولا أفكار جديدة

وهذا يعني أن هذه الأنظمة قادرة على كتابة رسائل البريد الإلكتروني، والإجابة عن الأسئلة، والتعليق على أي موضوع تقريباً، وتوليد رموز برمجية. ولكن نظراً لأن أنظمة الذكاء الاصطناعي تُعيد إنتاج الأنماط التي تجدها في البيانات الرقمية، فإنها لا تُجيد التخطيط المُسبق، أو توليد أفكار جديدة، أو التعامل مع مهام لم تُصادفها من قبل.

* لا يمتلك الذكاء الاصطناعي ذكاءً عاماً بل مجموعة واسعة من المهارات المختلفة*

يقول شوليه: «لا يمتلك الذكاء الاصطناعي ذكاءً عاماً، بل يمتلك مجموعة واسعة من المهارات المختلفة».

والآن، تُعلّم شركات مثل «أنثروبيك» و«أوبن ايه آي» هذه الأنظمة مهارات إضافية باستخدام تقنية تُسمى التعلّم المُعزّز. فمن خلال حلّ آلاف المسائل الرياضية، على سبيل المثال، يُمكنها تعلّم أيّ الطرق تُؤدي إلى الإجابة الصحيحة وأيّها لا تُؤدي إليها.

«نعم» في الرياضيات... «لا» في الكتابة الإبداعية

يُجدي هذا الأسلوب نفعاً في مجالاتٍ كالرياضيات وبرمجة الحاسوب، حيث تستطيع شركات الذكاء الاصطناعي تحديد السلوك الجيد والسيئ بوضوح؛ فإجابة المسألة الرياضية إما صحيحة أو خاطئة، وكذلك الأمر بالنسبة لبرنامج الحاسوب، فإما أن يجتاز اختبار الأداء أو يفشل.

لكن التعلم المعزز لا يُجدي نفعاً في مجالاتٍ كالكتابة الإبداعية أو الفلسفة أو حتى بعض العلوم، حيث يصعب التمييز بين الجيد والسيئ.

يقول جوشوا غانز، الخبير الاقتصادي في كلية روتمان للإدارة بجامعة تورنتو: «البرمجة - التي يُبدي الجميع حماساً لها حالياً - لا تُمثل كل ما يفعله الذكاء الاصطناعي. ففي البرمجة، يسهل استخدام حلقة التغذية الراجعة لتحديد ما يُجدي وما لا يُجدي».

تطور التكنولوجيا

أما بالنسبة للمستخدمين؛ فغالباً ما يصعب عليهم تحديد ما يُجيده الذكاء الاصطناعي وما لا يُجيده. وعندما يُدرك الناس تماماً نقاط قوة وضعف الأنظمة، تتغير التكنولوجيا.

قال الدكتور غانز: «إنّ عدم استقرار الذكاء الاصطناعي يعني أن المشكلات قد تنشأ من أي مكان. هناك ثغرات، ولا نعرف دائماً أين تكمن». لكن العامل الحاسم هو أن الذكاء الاصطناعي يتطور بسرعة. فالعديد من نقاط الضعف التي أشار إليها الدكتور كارباثي وآخرون في عامي 2024 وبداية 2025 لم تعد موجودة. وستكتشف الشركات أوجه قصور أخرى وتعمل على إصلاحها أيضاً... لذا فان «ثغرات التكنولوجيا تتقلص»، كما قال الدكتور إيماس.

* خدمة «نيويورك تايمز».


منصة فضائية بأذرع آلية لتزويد الأقمار الاصطناعية بالوقود

منصة «ميدنايت» من شركة «إم دي إيه»
منصة «ميدنايت» من شركة «إم دي إيه»
TT

منصة فضائية بأذرع آلية لتزويد الأقمار الاصطناعية بالوقود

منصة «ميدنايت» من شركة «إم دي إيه»
منصة «ميدنايت» من شركة «إم دي إيه»

يبدو أن الجميع يطمح للسيطرة على الفضاء. ولكن المشكلة تتمثل في أنه وكلما زاد عدد الأقمار الاصطناعية التي تطلقها الجيوش وتعتمد عليها، ازدادت الحاجة إلى نظام رقابي فعَّال لحماية تلك الأقمار، كما كتبت لورين سي. ويليامز(*).

منصة دعم فضائية

وهنا يأتي دور نظام جديد لقمر اصطناعي مزود بذراع آلية قادرة على تزويد الأقمار بالوقود اللازم: منصة«ميدنايت» من شركة «إم دي إيه» MDA Midnight الكندية هذه، التي كُشف عنها النقاب في ندوة الفضاء في كولورادو هذا الأسبوع. وقالت هولي جونسون، نائبة رئيس قسم الروبوتات والعمليات الفضائية في الشركة، لموقع «ديفنس وان»: «يستطيع هذا القمر الاصطناعي المزوَّد بذراع آلية، الاقتراب من السفن الفضائية الأخرى لفحصها، ومراقبة محيطها، واستكشاف الأجسام المقتربة، والدفاع ضد التهديدات المحتملة عند الحاجة».

التزويد بالوقود بسلامة

وأضافت جونسون أن هذه المنصة تستطيع أيضاً تزويد الأقمار الاصطناعية الأخرى بالوقود باستخدام ذراعه مع الحفاظ على مسافة آمنة من القمر الاصطناعي الذي يحتاج إلى التزويد بالوقود، وضمان استمرارية عمله.

وتابعت: «يتصل الذراع بواجهة تزويد الأقمار الاصطناعية بالوقود، بينما ستعوِّض الروبوتات معدلات الانحراف النسبي لهاتين المنصتين، لتأمين تزوبد القمر الاصطناعي بالوقود بسلاسة تامة».

10 آلاف قمر اصطناعي

وأضافت جونسون: «هناك مساعٍ حثيثة للحصول على مزيد من المعلومات حول الأجسام الموجودة في الفضاء - بما في ذلك ما يزيد عن 10 آلاف قمر اصطناعي - وما تقوم به، ومن يملكها، وأي تهديدات محتملة... ولكن الجزء المفقود من الوعي بالمجال الفضائي كان القدرة على اتخاذ أي إجراء حيال ذلك».

التنافس مع الصين

يأتي إطلاق هذا المنتج بعد أن أعرب الجنرال ستيفن وايتينغ قائد القيادة الفضائية الأميركية عن مخاوفه بشأن تجارب الصين الأخيرة في تزويد الأقمار الاصطناعية بالوقود؛ كما شدَّد في الآونة الأخيرة على ضرورة القدرة على نقل الأقمار الاصطناعية.

وقال وايتينغ أمام لجنة القوات المسلحة بمجلس الشيوخ الشهر الماضي: «ما يقلقني هو أنه إذا طوَّروا هذه القدرة، فسيكون لديهم القدرة على المناورة لتحقيق التفوق كما فعلت الولايات المتحدة لعقود - براً وبحراً وجوَّاً - حيث استخدمنا المناورة لصالحنا». وأضاف: «نحن بحاجة إلى تطوير قدراتنا الخاصة في حرب المناورة لضمان قدرتنا على الاستفادة من المزايا التي طوَّرتها القوات المشتركة على مدى عقود في الفضاء، كما فعلنا في مجالات أخرى».

* مجلة «ديفنس وان»، خدمات «ترييون ميديا».