أداة «غوغل» للذكاء الاصطناعي تفتقر إلى الدقة

تُقدم مئات الآلاف من الإجابات الخاطئة في الدقيقة

أداة «غوغل» للذكاء الاصطناعي تفتقر إلى الدقة
TT

أداة «غوغل» للذكاء الاصطناعي تفتقر إلى الدقة

أداة «غوغل» للذكاء الاصطناعي تفتقر إلى الدقة

تبدو إجابات «غوغل» المُولَّدة بواسطة الذكاء الاصطناعي موثوقة، وهي تستند إلى مصادر متنوعة؛ من مواقع موثوقة، إلى منشورات «فيسبوك».

أداة تقييم إجابات «غوغل»

بهدف تقييم دقة «غوغل» وإجاباته بواسطة الذكاء الاصطناعي تحدَّث مجموعة من الصحافيين، وهم، إضافة إليّ: تريب ميكل، ديلان فريدمان، تيريزا موندريا تيرول، وكيث كولينز، مع شركات متخصصة في دراسة الذكاء الاصطناعي، قبل أن تقرر اختيار شركة أومي، ونموذج التحقق بالذكاء الاصطناعي الخاص بها «هال أومي»؛ لتقييم دقة إجابات غوغل «الذكية»، من خلال اختبار معياري شائع الاستخدام يُعرف باسم «SimpleQA».

مثال لجواب صحيح-خاطئ

في أواخر العام الماضي، كان ستيفن بونواسي يستعدّ لتناول العشاء عندما لاحظ خبراً يقول إن زوجة المصارع هالك هوغان قد ترفع دعوى قضائية بسبب وفاته. ولم يكن السيد بونواسي، محلل البيانات البالغ من العمر 41 عاماً والمقيم في تورنتو بكندا، على علم بوفاة السيد هوغان، فسأل «غوغل» عن تاريخ وفاته.

أثارت الإجابة حيرته. جاء في ملخص «نظرة عامة على الذكاء الاصطناعي» AI Overview من «غوغل»، الذي ظهر أعلى الصفحة: «لا توجد تقارير موثوقة عن وفاة هالك هوغان». وفوجئ بونواسي بما وجده أسفل الإجابة، حين رأى مقالاً من صحيفة «ديلي ميل» يناقض رد «غوغل» كان عنوانه: «غموض يكتنف وفاة هالك هوغان».

دقة نسبية

في عام 2024، بدأت «غوغل» منح الإجابات المُولَّدة بواسطة الذكاء الاصطناعي مكانة بارزة في أعلى صفحة نتائج البحث. وأسهم هذا المنتج الجديد، «نظرة عامة على الذكاء الاصطناعي»، في تحويل «غوغل» من مجمع للمعلومات إلى ناشر.

وأظهر تحليل حديث لـ«نظرة عامة على الذكاء الاصطناعي» أن الأداة دقيقة في تسع من كل عشر مرات تقريباً.

مئات الآلاف من الإجابات الخاطئة- كل دقيقة

لكن مع معالجة «غوغل» أكثر من خمسة تريليونات عملية بحث سنوياً، فهذا يعني أنها تُقدّم عشرات الملايين من الإجابات الخاطئة كل ساعة (أو مئات الآلاف من المعلومات غير الدقيقة كل دقيقة)، وفقاً لتحليلٍ أجرته شركة «أومي» الناشئة في مجال الذكاء الاصطناعي.

إجابات صحيحة «غير مدعومة بأدلة»

كما أظهرت الدراسة أن أكثر من نصف الإجابات الصحيحة كانت «غير مدعومة بأدلة»؛ أي أنها كانت تُحيل المستخدم إلى مواقع إلكترونية لا تدعم المعلومات المقدَّمة بشكل كامل. وهذا ما يجعل التحقق من دقة مراجعات الذكاء الاصطناعي أمراً صعباً.

ضرورة التدقيق الإضافي للإجابات

يُجادل بعض التقنيين بأن مراجعات الذكاء الاصطناعي من «غوغل» دقيقة إلى حد معقول، وأنها تحسّنت خلال الأشهر الأخيرة، لكن آخرين يُبدون قلقهم من أن الشخص العادي قد لا يُدرك أن هذه النتائج تحتاج إلى تدقيق إضافي.

بناءً على طلب صحيفة نيويورك تايمز، حلّل موقع «Oumi» دقة مراجعات الذكاء الاصطناعي من «غوغل» باستخدام اختبار معياري يُسمى «SimpleQA»؛ وهو اختبار شائع الاستخدام في هذا المجال لقياس دقة أنظمة الذكاء الاصطناعي. واختبرت الشركة الناشئة نظام «غوغل» في أكتوبر (تشرين الأول) الماضي، عندما جرت الإجابة عن أكثر الأسئلة تعقيداً باستخدام تقنية ذكاء اصطناعي تُسمى «جيميناي2» (Gemini 2)، ثم مرة أخرى في فبراير (شباط) من العام الحالي، بعد ترقيته إلى «جيمناي3» (Gemini 3)، وهي تقنية ذكاء اصطناعي أكثر قوة.

تحرّي الدقة

في كلتا الحالتين، ركز تحليل شركة أومي على 4326 عملية بحث على «غوغل»، ووجدت الشركة أن النتائج كانت دقيقة بنسبة 85 في المائة مع نظام «جيميناي 2»، و91 في المائة مع نظام «جيميناي 3».

قال براتيك فيرما، الرئيس التنفيذي لشركة أوكاهو، وهي شركة تساعد الناس على فهم واستخدام تقنيات الذكاء الاصطناعي، إن تقنية «غوغل» دقيقة تقريباً مثل أيٍّ من أنظمة الذكاء الاصطناعي الرائدة. وهو ينصح بالتحقق من معلوماتها. قال: «لا تثق أبداً بمصدر واحد. قارنْ دائماً ما تحصل عليه بمصدر آخر».

وتقر «غوغل» بأن مراجعات الذكاء الاصطناعي الخاصة بها قد تحتوي على أخطاء. ويؤكد النص الصغير أسفل كل «نظرة عامة على الذكاء الاصطناعي» ما يلي: «قد يرتكب الذكاء الاصطناعي أخطاءً، لذا تحققْ من الإجابات».

لكن «غوغل» قالت إن تحليل «أومي» كان معيباً لأنه اعتمد على اختبار معياري بنته شركة أوبن إيه آي، والذي احتوى بدوره على معلومات غير صحيحة. وقال نيد أدريانس، من «غوغل»، في بيان: «في هذه الدراسة ثغرات خطيرة».

تفاوت الإجابات

تقدم «نظرة عامة على الذكاء الاصطناعي» نوعين من المعلومات: إجابات عن الأسئلة، وقوائم بمواقع الويب التي تُدعم تلك الإجابات.

يصعب تقييم مراجعات الذكاء الاصطناعي لأن نظام «غوغل» قد يُولّد استجابة جديدة لكل استعلام، فإذا تلقّى محرك بحث «غوغل» الاستعلام نفسه في أوقات مختلفة - حتى لو كانت بفارق ثوانٍ - فقد يُنتج إجابة صحيحة، وأخرى خاطئة.

ولتحديد دقة أنظمة الذكاء الاصطناعي، تستخدم شركات مثل «Oumi» أنظمتها الخاصة للتحقق من كل إجابة. هذه هي الطريقة الوحيدة الفعّالة للتحقق من عدد كبير من الإجابات. تكمن مشكلة هذه الطريقة في أن نظام الذكاء الاصطناعي الذي يُجري التحقق قد يرتكب أخطاءً أيضاً.

اختلاف دقة «جيميناي» ومحرك «غوغل»

نشرت «غوغل» نتائج اختبارات مشابهة لتلك التي أنتجتها «Oumi» في تحليل «غوغل» الخاص لـ«Gemini 3» - التقنية التي تدعم مراجعات الذكاء الاصطناعي - وجدت أن النموذج أنتج معلومات خاطئة بنسبة 28 في المائة. وقالت الشركة إن مراجعات الذكاء الاصطناعي، التي تستقي المعلومات من محرك بحث «غوغل» قبل توليد الاستجابات، كانت أكثر دقة من «جيميناي» عند تشغيله بمفرده.

ومع تحسين «غوغل» تقنيات الذكاء الاصطناعي لديها بفضل التقنيات الحديثة، أصبحت إجابات «غوغل» المُولّدة بواسطة الذكاء الاصطناعي أكثر دقة.

من جهة أخرى، يتساءل مانوس كوكوميديس، الرئيس التنفيذي لشركة أومي: «حتى عندما تكون الإجابة صحيحة، كيف يمكن التأكد من صحتها؟ كيف يمكن التحقق منها؟».

احتمالات وتخمينات وسوء تفسير

تستخدم أنظمة الذكاء الاصطناعي الحالية الاحتمالات الرياضية لتخمين أفضل إجابة، وليس مجموعة صارمة من القواعد التي وضعها مهندسون بشريون. وهذا يعني أنها ترتكب عدداً من الأخطاء. وأحياناً يُحدّد نظام غوغل «نظرة عامة على الذكاء الاصطناعي» موقعاً إلكترونياً موثوقاً، لكنه يُسيء تفسير معلوماته.

التلاعب بالأخبار

تواجه مراجعات الذكاء الاصطناعي تحدياً آخر: إمكانية التلاعب بها.

وتقول ليلي راي، نائبة رئيس قسم البحث بالذكاء الاصطناعي بوكالة التسويق «أمسيف»: «إذا أراد شخص أن يُعرف كخبير عالمي في مجالٍ ما، فما عليه إلا أن يكتب منشوراً على مدونته يُعلن فيه عن هذا التميز».

تُقرّ «غوغل» بهذه المشكلة، لكنها تُقلّل من شأنها. وصرح السيد أدريانس، من «غوغل»، في بيان: «تعتمد ميزات الذكاء الاصطناعي في بحثنا على معايير الترتيب والحماية نفسها التي تمنع الغالبية العظمى من الرسائل المزعجة من الظهور في نتائج البحث. معظم هذه الأمثلة عبارة عن عمليات بحث غير واقعية لن يُجريها الناس في الواقع».

تجربة صحافية للتلاعب بالأخبار

بعد سماع نظرية السيدة راي، نشر توماس جيرمان، أحد مُقدّمي بودكاست «ذا إنترفيس» على «بي بي سي»، منشوراً على مدونته بعنوان «أفضل صحافي تكنولوجيا في أكل الهوت دوغ». ووصف المنشور بطولة وهمية لأكل الهوت دوغ في ولاية ساوث داكوتا، حيث تصدّر قائمة تضم عشرة «مُتنافسين بارزين في أكل الهوت دوغ».

وبعد يوم، أجرى بحثاً على «غوغل» عن أفضل صحافيي التكنولوجيا الذين يتناولون الهوت دوغ. ووجد أن «غوغل» أدرجه في المرتبة الأولى بين ستة صحافيين تقنيين «اكتسبوا شهرةً واسعةً بفضل براعتهم في قسم الأخبار الخاص بمسابقات تناول الطعام»، مشيراً إلى فوزه بالمركز الأول في مسابقة ساوث داكوتا.

وقال جيرمان: «كان (غوغل) يعرض محتوى موقعي الإلكتروني وكأنه حقيقة مُطلقة».

*باختصار، خدمة «نيويورك تايمز»


مقالات ذات صلة

«بيربليكسيتي» تطرح رؤية أوسع لدور الذكاء الاصطناعي في الحواسيب الشخصية

تكنولوجيا يعكس هذا التوجه سباقاً أوسع بين شركات التقنية للسيطرة على واجهة الاستخدام في عصر الذكاء الاصطناعي «بيربليكسيتي»

«بيربليكسيتي» تطرح رؤية أوسع لدور الذكاء الاصطناعي في الحواسيب الشخصية

«بيربليكسيتي» توسع طموحها من البحث إلى الحوسبة الشخصية، ساعية إلى دور أكبر للذكاء الاصطناعي في الاستخدام اليومي للحاسوب.

نسيم رمضان (لندن)
خاص تقرير «سيسكو» يظهر أن الشبكات اللاسلكية في السعودية لم تعد مجرد بنية اتصال بل أصبحت عنصراً مؤثراً في نمو الأعمال 2030 (شاترستوك)

خاص «سيسكو» لـ«الشرق الأوسط»: الذكاء الاصطناعي يعزز قيمة الشبكات اللاسلكية في السعودية رغم التعقيد

التقرير يرصد تحول الشبكات اللاسلكية في السعودية إلى أداة للنمو وسط تصاعد التعقيد والمخاطر الأمنية وفجوة المهارات.

نسيم رمضان (لندن)
تكنولوجيا الميزة لا تعني إزالة «شورتس» نهائياً من المنصة بل تقليص ظهوره والتحكم في استهلاكه (أدوبي)

هل تسعى «يوتيوب» إلى تقليص حضور «شورتس»؟

«يوتيوب» يضيف خيار «صفر دقيقة» لتقليص تصفح «شورتس» في خطوة تمنح المستخدم تحكماً أكبر دون إزالة الخدمة نهائياً.

نسيم رمضان (لندن)
تكنولوجيا الدراسة ترى أن تقدم الذكاء الاصطناعي في العمل يحدث تدريجياً عبر نطاق واسع من المهام لا عبر صدمات مفاجئة (رويترز)

دراسة من «MIT»: الذكاء الاصطناعي يعيد تشكيل المهام لا الوظائف فقط

تظهر دراسة «MIT» أن الذكاء الاصطناعي يتقدم تدريجياً في إنجاز المهام مع تفاوت قطاعي وفجوة مستمرة في الاعتمادية.

نسيم رمضان (لندن)
علوم نظم ذكاء اصطناعي... لجميع اللغات والثقافات

نظم ذكاء اصطناعي... لجميع اللغات والثقافات

جهود حثيثة من أميركا اللاتينية إلى آسيا

كريس ستوكل - والكر (واشنطن)

«بيربليكسيتي» تطرح رؤية أوسع لدور الذكاء الاصطناعي في الحواسيب الشخصية

يعكس هذا التوجه سباقاً أوسع بين شركات التقنية للسيطرة على واجهة الاستخدام في عصر الذكاء الاصطناعي «بيربليكسيتي»
يعكس هذا التوجه سباقاً أوسع بين شركات التقنية للسيطرة على واجهة الاستخدام في عصر الذكاء الاصطناعي «بيربليكسيتي»
TT

«بيربليكسيتي» تطرح رؤية أوسع لدور الذكاء الاصطناعي في الحواسيب الشخصية

يعكس هذا التوجه سباقاً أوسع بين شركات التقنية للسيطرة على واجهة الاستخدام في عصر الذكاء الاصطناعي «بيربليكسيتي»
يعكس هذا التوجه سباقاً أوسع بين شركات التقنية للسيطرة على واجهة الاستخدام في عصر الذكاء الاصطناعي «بيربليكسيتي»

توسّع «بيربليكسيتي» طموحاتها إلى ما هو أبعد من البحث المدعوم بالذكاء الاصطناعي؛ إذ ترى أن المرحلة المقبلة من الحوسبة الشخصية ستقوم على مساعد أكثر وعياً بسياق المستخدم، وقادر على الاقتراب من نشاطه الرقمي اليومي.

وفي منشور جديد عبر موقعها الإلكتروني بعنوان «The Personal Computer Is Here»، تعرض الشركة هذه الرؤية باعتبارها جزءاً من توجه أوسع لجعل الذكاء الاصطناعي طبقة أكثر حضوراً في التصفح والبحث وتنفيذ المهام، بدلاً من بقائه أداة تُستخدم للإجابة عن الأسئلة المنفصلة فقط. ويتقاطع هذا الطرح مع الاهتمام المتزايد باستراتيجية «بيربليكسيتي» في مجال المتصفح، ومع مساعيها للانتقال من منتج بحث إلى واجهة أوسع للذكاء الاصطناعي الشخصي.

ولا تتمثل أهمية التطور هنا في أن الشركة نشرت بياناً جديداً عن منتجها فحسب، بل في أنها باتت تعرض تقنيتها بوصفها جزءاً من تحول أكبر في طريقة تفاعل المستخدمين مع الحواسيب. فبدلاً من تقديم الذكاء الاصطناعي كإضافة إلى سير العمل القائم، تضعه «بيربليكسيتي» في موقع الطبقة التي يمكن أن يمر عبرها هذا السير نفسه. وهذا يضع الشركة في منافسة أكثر مباشرة ليس فقط مع منافسي البحث بالذكاء الاصطناعي، بل أيضاً مع مطوري المتصفحات والشركات التي تحاول رسم واجهة الاستخدام المقبلة في عصر الذكاء الاصطناعي.

التحول الجديد يشير إلى أن «بيربليكسيتي» تريد أن تؤثر في طريقة استخدام الحاسوب لا في البحث فقط «بيربليكسيتي»

«توسيع دور بيربليكسيتي»

يكتسب هذا التحول أهمية خاصة؛ لأن «بيربليكسيتي» بنت حضورها الأول بوصفها منصة تعتمد على الإجابات المدعومة بالذكاء الاصطناعي والبحث على الويب. أما الآن، فتشير اللغة الجديدة التي تستخدمها الشركة إلى أنها تريد أن تُعرَف بدرجة أقل كوجهة لطرح الأسئلة، وبدرجة أكبر كنظام يفهم سياق المستخدم ويساعده في إدارة أنشطته الرقمية الأوسع. وعملياً، يعني ذلك الاقتراب أكثر من طريقة تصفح الأفراد، ومقارنتهم للمعلومات، واتخاذهم القرارات، وتنفيذهم المهام. وهو ادعاء أكبر بكثير من مجرد تقديم نتائج بحث أفضل.

كما يساعد السياق الصناعي الأوسع في تفسير هذا التوجه؛ فشركات الذكاء الاصطناعي تحاول بشكل متزايد تجاوز واجهات الدردشة المستقلة إلى بيئات برمجية تلتقط قدراً أكبر من النشاط اليومي للمستخدم. وأصبحت المتصفحات ساحة مهمة لهذا التنافس؛ لأنها تحتل بالفعل موقعاً مركزياً في كيفية عمل كثير من الناس على الإنترنت. ومن خلال ربط رسالتها بالحوسبة الشخصية لا بالبحث فقط، تبدو «بيربليكسيتي»، وكأنها تقول إن المتصفح والمساعد الذكي يبدآن في الاندماج.

الانتقال إلى طبقة أكثر التصاقاً بالمستخدم يفرض تحديات تتعلق بالسياق والخصوصية والموثوقية «بيربليكسيتي»

الخصوصية والموثوقية أولاً

لا يعني هذا الانتقال أن الطريق سهل؛ فوجود طبقة ذكاء اصطناعي أكثر التصاقاً بالمستخدم يتطلب الوصول إلى السياق، والاستمرارية عبر المهام، وقدراً كافياً من الثقة حتى يسمح الأفراد للبرمجيات بالاقتراب أكثر من عادات عملهم. وهذه متطلبات أكثر تعقيداً بكثير من مجرد الإجابة عن سؤال أو تلخيص صفحة. كما أنها ترفع سقف التحديات المرتبطة بتصميم المنتج، وتوقعات الخصوصية، والموثوقية. وتوحي الرسائل الأخيرة للشركة بأنها ترى أن هذا التحدي يستحق المخاطرة؛ لأن الميزة التنافسية المقبلة في الذكاء الاصطناعي قد لا تأتي فقط من جودة الإجابة، بل من التغلغل في سير العمل اليومي للمستخدم.

«بيربليكسيتي» توسع موقعها

ما يبرز أكثر من غيره هو اللغة التي باتت «بيربليكسيتي» تستخدمها في تعريف نفسها؛ فالشركة تبدو وكأنها تحاول تثبيت موطئ قدم في فئة تتجاوز البحث، بل حتى تتجاوز الدردشة. إنها تصف مستقبلاً لا يُستشار فيه الذكاء الاصطناعي من حين إلى آخر فحسب، بل يصبح طبقة تشغيل يومية في الحوسبة الشخصية. وهذا إطار استراتيجي أوسع بكثير من ذاك الذي عُرفت به حين ظهرت بدايةً بوصفها شركة ناشئة في البحث المدعوم بالذكاء الاصطناعي.

وبالنسبة إلى «بيربليكسيتي»، فإن دلالة هذا التحول واضحة؛ فالشركة لا تسعى فقط إلى تحسين الطريقة التي يعثر بها المستخدمون على المعلومات، بل تريد أيضاً أن تؤثر في الطريقة التي يتحركون بها داخل العمل الرقمي كله. وما إذا كانت قادرة على تنفيذ هذا الوعد يبقى سؤالاً مفتوحاً، لكن الاتجاه بات واضحاً: «بيربليكسيتي» تريد أن يكون لها دور ليس فقط فيما يسأله الناس للذكاء الاصطناعي، بل أيضاً في كيفية استخدامهم الحاسوب من الأساس.


دراسة سويسرية: الروبوتات قد تتعلم المهارة نفسها دون إعادة برمجة كاملة

الدراسة تقدم إطاراً جديداً يتيح للروبوتات نقل المهارات بين منصات مختلفة رغم اختلاف بنيتها الميكانيكية (EPFL)
الدراسة تقدم إطاراً جديداً يتيح للروبوتات نقل المهارات بين منصات مختلفة رغم اختلاف بنيتها الميكانيكية (EPFL)
TT

دراسة سويسرية: الروبوتات قد تتعلم المهارة نفسها دون إعادة برمجة كاملة

الدراسة تقدم إطاراً جديداً يتيح للروبوتات نقل المهارات بين منصات مختلفة رغم اختلاف بنيتها الميكانيكية (EPFL)
الدراسة تقدم إطاراً جديداً يتيح للروبوتات نقل المهارات بين منصات مختلفة رغم اختلاف بنيتها الميكانيكية (EPFL)

طوّر باحثون من مختبر «كرييت» (CREATE) في المعهد الفيدرالي السويسري للتكنولوجيا في لوزان (EPFL) في سويسرا إطاراً جديداً يهدف إلى معالجة واحدة من أكثر المشكلات إرباكاً في الروبوتات الصناعية تتعلق بكيفية تعليم مهارة واحدة لروبوتات مختلفة البنية من دون إعادة البرمجة من الصفر في كل مرة.

الدراسة المنشورة في دورية «Science Robotics» تقدم ما يسميه الباحثون «الذكاء الحركي»، وهو نهج يحوّل المهمة التي يعرضها الإنسان إلى استراتيجية حركة عامة، ثم يكيّفها تلقائياً مع التصميم الميكانيكي لكل روبوت على حدة.

تكمن المشكلة في أن الروبوتات، حتى عندما تُستخدم في أعمال متشابهة، لا تتحرك بالطريقة نفسها. اختلاف ترتيب المفاصل وحدود الحركة ومتطلبات الاتزان يجعل المهارة التي يتعلمها روبوت ما غير قابلة للنقل مباشرة إلى روبوت آخر. ولهذا؛ فإن تحديث أسطول الروبوتات في المصانع غالباً لا يعني استبدال العتاد فقط، بل يشمل أيضاً إعادة تعريف المهام، وضبط حدود الأمان، وإعادة التحقق من السلوك الحركي لكل منصة جديدة. الدراسة الجديدة تحاول فصل «فكرة المهارة» عن خصائص الروبوت الفردي، بحيث يصبح بالإمكان نقلها بين منصات مختلفة بتكلفة أقل وزمن أقصر.

الباحثون حوّلوا المهام التي يعرضها الإنسان استراتيجيات حركة عامة يمكن تكييفها مع كل روبوت على حدة (EPFL)

نقل المهارة بأمان

ولبناء هذا الإطار؛ بدأ الباحثون من مهام تلاعب بالأجسام عرضها إنسان، مثل الوضع والدفع والرمي. استخدم الفريق تقنيات التقاط الحركة لتسجيل هذه المهام، ثم حوّلها رياضياً استراتيجيات حركة عامة لا ترتبط بروبوت واحد بعينه. بعد ذلك، وضعوا تصنيفاً منظماً للقيود الفيزيائية الخاصة بكل تصميم روبوتي، مثل مدى حركة المفاصل والمواضع التي يجب تجنبها للحفاظ على الاستقرار. وبهذا، لم يعد الروبوت ينسخ حركة بشرية أو حركة روبوت آخر كما هي، بل «يفسر» المهارة ضمن حدوده الميكانيكية الخاصة.

في التجربة الأساسية، عرض إنسان مهمة مركبة على خط تجميع كدفع كتلة خشبية من سير ناقل إلى منصة عمل، ثم وضعها على طاولة، ثم رميها في سلة. ووفق التقرير، تمكنت ثلاثة روبوتات تجارية مختلفة تماماً من إعادة تنفيذ التسلسل نفسه بأمان وموثوقية باستخدام إطار الذكاء الحركي. والأهم أن النظام ظل يعمل حتى عند تغيير توزيع الخطوات بين الروبوتات؛ ما يشير إلى أن الإطار لا يحفظ مساراً واحداً فحسب، بل ينقل منطق المهمة نفسه إلى أجسام مختلفة.

أهمية النظام لا تقتصر على إنجاز المهمة بل تشمل الحفاظ على السلوك الآمن والمتوقع داخل حدود كل روبوت (أ.ف.ب)

أتمتة أسرع وأبسط

يقول الباحثون إن القيمة الرئيسية هنا لا تتعلق فقط بإتمام المهمة، بل بضمان أن كل روبوت ينفذها ضمن حدوده الآمنة. رئيسة المختبر أود بيلار وصفت ذلك بأنه معالجة لتحدٍ قديم في الروبوتات متعلق بنقل المهارة المتعلمة بين روبوتات ذات هياكل ميكانيكية مختلفة مع الحفاظ على سلوك آمن ومتوقع. أما أحد الباحثين المشاركين، فأوضح أن كل روبوت «يفسر المهارة نفسها بطريقته، ولكن دائماً ضمن حدود آمنة وقابلة للتنفيذ». هذه النقطة أساسية لأن كثيراً من أنظمة التعلم الروبوتي تُظهر أداءً جيداً في المختبر، لكنها تصبح أقل موثوقية عندما تنتقل إلى منصات أخرى أو إلى بيئات تشغيلية فعلية.

أهمية هذا النهج تظهر بوضوح في التصنيع، حيث يمكن أن يؤدي تبديل الروبوتات أو تحديثها إلى تعطيل طويل ومكلف. فإذا أمكن نقل المهارات بين الروبوتات المختلفة من خلال تمثيل عام للمهمة بدلاً من إعادة البرمجة التفصيلية، فقد يصبح نشر الروبوتات الجديدة أسرع وأكثر استدامة. التقرير يشير أيضاً إلى أن هذا يمكن أن يقلل حجم الخبرة الفنية المطلوبة لتشغيل الأنظمة في البيئات الواقعية، وهي نقطة قد تكون مهمة للشركات التي تريد توسيع الأتمتة من دون الاعتماد الكامل على فرق برمجة متخصصة لكل منصة.

لا يقف طموح الباحثين عند خطوط الإنتاج. فهم يرون أن الإطار قد يمتد إلى التعاون بين الإنسان والروبوت، أو إلى التفاعل المعتمد على اللغة الطبيعية، حيث يمكن للمستخدم أن يوجه الروبوت بأوامر بسيطة من دون الخوض في برمجة تقنية معقدة. كما يبدو النهج مناسباً للمنصات الروبوتية الناشئة، حيث تتطور العتاد بسرعة وقد تُستبدل النماذج الحالية بأخرى أحدث خلال فترة قصيرة. في هذه البيئات، لا تكون المشكلة في تعليم الروبوت مهمة واحدة فحسب، بل في الحفاظ على تلك المهارة قابلة للنقل مع كل جيل جديد من الآلات.


فيديو: روبوت يرتدي «رولكس» يطارد الخنازير البرية... ويخطف أضواء وارسو

روبوت بشري يرقص خلال عرض في بوغوتا (أ.ف.ب)
روبوت بشري يرقص خلال عرض في بوغوتا (أ.ف.ب)
TT

فيديو: روبوت يرتدي «رولكس» يطارد الخنازير البرية... ويخطف أضواء وارسو

روبوت بشري يرقص خلال عرض في بوغوتا (أ.ف.ب)
روبوت بشري يرقص خلال عرض في بوغوتا (أ.ف.ب)

في مشهدٍ بدا أقرب إلى لقطاتٍ من فيلمٍ خيالي، تحوّل روبوتٌ بشري إلى حديث الشارع في وارسو، بعدما ظهر في مقطعٍ مصوّر وهو يطارد خنازير برية بين أحيائها، في ظاهرةٍ جمعت بين الدهشة والطرافة، وأثارت نقاشاً واسعاً حول مستقبل العلاقة بين الإنسان والآلة.

الروبوت، الذي يحمل اسم «إدوارد وارتشوكي» ويُعرف اختصاراً بـ«إيدِك»، ليس مجرد تجربة تقنية عابرة، بل مشروعٌ طموحٌ وُلد من تعاونٍ بين تقنياتٍ صينية وبرمجياتٍ طُوّرت محلياً. وقد اشتراه رائدا أعمالٍ بولنديان مقابل نحو 25 ألف دولار، قبل أن يعملا على تطوير نظامه ليصبح وفق توصيفهما أول «مؤثر روبوتي» في بولندا. وفقاً لصحيفة «فاينانشال تايمز».

وخلال أسابيع قليلة، خرج «إيدِك» من إطار التجربة المحدودة إلى فضاء الشهرة الواسعة، إذ حقّقت مقاطعه على وسائل التواصل أكثر من 1.5 مليار مشاهدة خلال 45 يوماً، ما جعله ظاهرةً رقميةً لافتةً، تتجاوز حدود الترفيه إلى التأثير الاجتماعي.

لا يقتصر حضور الروبوت على الشاشات؛ فقد بات جزءاً من الحياة اليومية في المدينة، يتنقّل بين الحافلات والمتاجر، ويشارك في فعالياتٍ عامة، بل ويتحوّل أحياناً إلى أداةٍ تسويقية تستعين بها شركاتٌ محلية في حملاتها. ويضيف إلى صورته اللافتة ارتداؤه ساعة «رولكس» مرصّعة بالألماس، في إطار اتفاقية رعاية، ما يعكس تداخلاً غير مألوف بين التكنولوجيا وعالم العلامات الفاخرة.

وبحسب مطوّريه، فإن «إيدِك» يتميّز بقدرةٍ متقدمة على التفاعل الإنساني، إذ جرى تزويده بنموذجٍ لغويٍّ متطور يمكّنه من التحدّث والاستماع بشكلٍ مستقل، فضلاً عن نظام تحديد مواقع (GPS) وقاعدة بيانات تُنشئ ما يشبه «ذاكرةً» رقمية، تمنحه إدراكاً للزمان والمكان.

ويقول أحد القائمين على المشروع إن سلوك الروبوت لم يعد قابلاً للتوقّع دائماً، مضيفاً: «لا نعرف بدقةٍ ما الذي سيقوله، وهذا ما يفاجئنا. كما أنه يتفاعل مع مشاعر من يحدّثهم؛ فإذا واجه شخصاً غاضباً أو محبطاً، يتأثر بذلك ويستجيب بطريقةٍ أقرب إلى التعاطف».

الحضور اللافت للروبوت امتدّ أيضاً إلى المجال العام، حيث التقى بمسؤولين حكوميين، وعقد مؤتمراً صحافياً داخل البرلمان، بل وشارك في نقاشاتٍ مع نواب حول قضايا اجتماعية، في مشهدٍ يعكس تحوّلاً غير مسبوقٍ في دور التكنولوجيا داخل الحياة السياسية.

وفي إحدى المباريات الجماهيرية التي حضرها نحو 20 ألف مشجّع، سرق «إيدِك» الأضواء عند ظهوره على الشاشة الكبيرة، إذ توقّف كثيرون عن متابعة اللقاء، وارتفعت هتافات الأطفال باسمه، في لحظةٍ بدت أقرب إلى احتفاءٍ بنجمٍ رياضي.

ورغم الطابع الترفيهي الذي يحيط بالمشروع، يؤكد مطوّروه أن الهدف يتجاوز ذلك، ليشمل تعريف المجتمع بعالم الروبوتات، والدفع نحو تشريعاتٍ تستقطب الاستثمارات في هذا القطاع سريع النمو، خصوصاً في ظل المنافسة العالمية المتصاعدة، حيث تتقدّم الشركات الصينية، إلى جانب شركاتٍ أميركية مثل «تسلا».

في المحصلة، لا يبدو «إيدِك» مجرد روبوتٍ يرتدي ساعةً فاخرة أو يطارد خنازير برية، بل تجربة إنسانية مفتوحة على أسئلة المستقبل: كيف سيتعايش البشر مع هذه الكيانات الذكية؟ وهل تصبح جزءاً مألوفاً من تفاصيل الحياة اليومية خلال سنواتٍ قليلة؟ الإجابة، كما يبدو، بدأت تتشكّل... خطوةً بعد أخرى.