منهجية لرصد «عدالة الذكاء الاصطناعي» داخل «الصندوق الأسود للخوارزميات»

لموازنة الكفاءة والإنصاف والمسؤولية

طوّر باحثو «MIT» منهجية لرصد مخاطر العدالة في أنظمة الذكاء الاصطناعي قبل نشرها (شاترستوك)
طوّر باحثو «MIT» منهجية لرصد مخاطر العدالة في أنظمة الذكاء الاصطناعي قبل نشرها (شاترستوك)
TT

منهجية لرصد «عدالة الذكاء الاصطناعي» داخل «الصندوق الأسود للخوارزميات»

طوّر باحثو «MIT» منهجية لرصد مخاطر العدالة في أنظمة الذكاء الاصطناعي قبل نشرها (شاترستوك)
طوّر باحثو «MIT» منهجية لرصد مخاطر العدالة في أنظمة الذكاء الاصطناعي قبل نشرها (شاترستوك)

مع توسّع دور أنظمة الذكاء الاصطناعي في اتخاذ قرارات مستقلة داخل قطاعات حيوية، لم يعد السؤال يقتصر على كفاءة هذه الأنظمة؛ بل أصبح يشمل مدى عدالتها أيضاً. وفي هذا السياق، قدّم باحثون من معهد ماساتشوستس للتكنولوجيا (MIT) منهجية جديدة تهدف إلى رصد مخاطر العدالة في أنظمة اتخاذ القرار المستقلة قبل نشرها، ما قد يشكّل تحولاً في طريقة تقييم هذه التقنيات.

وعادةً ما تُصمَّم الأنظمة المستقلة لتحسين نتائج قابلة للقياس؛ ففي شبكات الطاقة، على سبيل المثال، قد يحدد نموذج ذكاء اصطناعي كيفية توزيع الكهرباء بطريقة تقلل التكاليف وتحافظ على الاستقرار. لكن هذا النوع من التحسين لا يأخذ بالضرورة في الاعتبار كيفية توزيع النتائج بين مختلف الفئات المجتمعية؛ فقد تبدو الاستراتيجية فعّالة من الناحية التقنية، لكنها قد تؤدي إلى تحميل أحياء ذات دخل منخفض عبء انقطاعات الكهرباء، مقابل حماية مناطق أكثر ثراءً.

العدالة في الذكاء الاصطناعي غالباً غير واضحة بسبب طبيعة «الصندوق الأسود» للخوارزميات (غيتي)

«الصناديق سوداء»

هذا التوتر بين الكفاءة والعدالة يشكّل جوهر البحث الجديد؛ فقد طوّر فريق «MIT» منهجية تقيم بشكل منهجي كيف توازن الأنظمة المستقلة بين هذه الأولويات المتنافسة. وبدلاً من التركيز فقط على مؤشرات الأداء التقنية، يدمج النهج الجديد عوامل كمية مثل التكلفة وموثوقية النظام مع اعتبارات نوعية تشمل العدالة والإنصاف.

تقنياً، تعمل هذه المنهجية بوضفها إطار تقييم آلياً، حيث تحلل القرارات التي تتخذها أنظمة الذكاء الاصطناعي وتحدد الحالات التي قد تؤدي إلى نتائج إشكالية أخلاقياً. ومن خلال رصد هذه المخاطر في مرحلة مبكرة، تتيح الأداة للمطورين وصناع القرار وأصحاب المصلحة تقييم المفاضلات قبل تطبيق الأنظمة في الواقع.

وتكتسب هذه القدرة أهمية خاصة لأن العدالة في الذكاء الاصطناعي ليست دائماً واضحة؛ فكثير من الخوارزميات تعمل بوصفها «صناديق سوداء»، ما يجعل من الصعب تتبع كيفية اتخاذ القرارات أو تفسير النتائج. وفي كثير من الأحيان، لا يكون التحيّز مقصوداً؛ بل ينشأ من البيانات المستخدمة في تدريب النظام أو من طريقة تصميم أهدافه.

وتعالج المنهجية الجديدة هذا التحدي من خلال توفير طريقة منظمة لتقييم العدالة جنباً إلى جنب مع مؤشرات الأداء التقليدية. وبدلاً من التعامل مع العدالة عاملاً ثانوياً أو متطلباً تنظيمياً منفصلاً، تصبح جزءاً أساسياً من عملية تصميم واختبار الأنظمة.

المنهجية توازن بين الكفاءة التقنية والاعتبارات الأخلاقية مثل الإنصاف وتوزيع النتائج (غيتي)

تداعيات الذكاء المستقل

لا تقتصر تداعيات هذا النهج على قطاع الطاقة؛ فأنظمة اتخاذ القرار المستقلة تُستخدم بشكل متزايد في مجالات مثل التخطيط الحضري، وتوزيع الموارد الصحية، والمركبات ذاتية القيادة. وفي كل من هذه المجالات، يمكن أن يكون لقرارات الذكاء الاصطناعي تأثيرات اجتماعية واسعة، خصوصاً عندما تتعلق بالوصول إلى خدمات أساسية.

وفي قطاع النقل، على سبيل المثال، قد تعمل خوارزميات التوجيه على تقليل زمن الرحلات، لكنها قد تفضّل مناطق معينة على حساب أخرى. وفي الرعاية الصحية، قد تسعى نماذج توزيع الموارد إلى تحقيق الكفاءة، لكنها قد لا تضمن توزيعاً عادلاً بين مختلف الفئات السكانية. ومن خلال توفير وسيلة منهجية لرصد هذه المخاطر، يُسهم بحث «MIT» في تعزيز تطوير أنظمة ذكاء اصطناعي أكثر مسؤولية ومواءمة مع القيم الاجتماعية.

كما يعكس هذا العمل توجهاً متزايداً نحو ما يُعرف بـ«الذكاء الاصطناعي الموثوق»، وهو إطار يركز على الشفافية والمساءلة والعدالة إلى جانب الأداء. ومع ذلك، فإن مفهوم العدالة في هذا السياق ليس موحداً؛ إذ قد يشير إلى المساواة في النتائج، أو في المعاملة، أو في توزيع الموارد، بحسب التطبيق. وهذا التعقيد يجعل من الصعب تصميم أنظمة تحقق الكفاءة والإنصاف في الوقت ذاته.

ولا تسعى منهجية «MIT» إلى حسم هذه النقاشات الفلسفية؛ بل تقدم أداة عملية تكشف نقاط التوازن والمفاضلة بين هذه الأهداف. ومن خلال إظهار هذه المفاضلات بشكل واضح، تتيح لصنّاع القرار التعامل معها بوعي، بدلاً من بقائها مخفية داخل العمليات الخوارزمية.

ومن أبرز مساهمات هذا البحث تركيزه على التقييم قبل النشر؛ فكثير من الجهود الحالية في مجال عدالة الذكاء الاصطناعي يركز على اكتشاف التحيّز بعد تطبيق الأنظمة، وهو نهج تفاعلي قد يكون مكلفاً وصعب التنفيذ، خصوصاً عندما تكون الأنظمة قد أصبحت جزءاً من بنى تحتية حيوية.

النهج الاستباقي يساعد في تقليل الأضرار المحتملة ويدعم تطوير أنظمة أكثر شفافية ومسؤولية (رويترز)

تقييم قبل النشر

في المقابل، يتيح النهج الجديد استراتيجية استباقية، حيث يمكن للمطورين اختبار سيناريوهات متعددة، وتقييم التأثيرات المحتملة، وضبط معايير النظام قبل إطلاقه. وهذا لا يقلل فقط من مخاطر الأضرار غير المقصودة؛ بل يتماشى أيضاً مع التوجهات التنظيمية المتزايدة التي تركز على تقييم المخاطر والمساءلة في أنظمة الذكاء الاصطناعي.

ومع ذلك، يسلّط هذا النهج الضوء أيضاً على التحديات المستمرة في تحويل مفهوم العدالة إلى تطبيق عملي داخل أنظمة معقدة؛ فالأنظمة المستقلة غالباً ما تتكون من عناصر متعددة تتفاعل ضمن بيئات ديناميكية، ما يجعل ضمان العدالة بشكل مستمر أمراً صعباً، خصوصاً مع توسّع نطاق استخدامها.

إضافة إلى ذلك، قد تتعارض اعتبارات العدالة أحياناً مع أهداف أخرى مثل تقليل التكاليف أو تحسين الكفاءة. والتعامل مع هذه التعارضات يتطلب ليس فقط حلولاً تقنية؛ بل أيضاً قرارات سياسية ومشاركة مجتمعية.

وفي هذا الإطار، لا تهدف الأدوات مثل تلك التي طوّرها فريق «MIT» إلى استبدال الحكم البشري؛ بل إلى دعمه وتزويده بمعلومات أوضح. ومع استمرار توسّع دور الأنظمة المستقلة في المجتمع، تصبح القدرة على تقييم آثارها الأوسع أمراً ضرورياً.

ويمثّل هذا البحث خطوة نحو تقييم أكثر شفافية ومنهجية لهذه الأنظمة، من خلال توفير وسيلة لرصد المخاطر الأخلاقية قبل أن تتحول إلى واقع. وهو ما يعكس تحوّلاً أوسع في مسار الذكاء الاصطناعي: من التركيز على ما يمكن أن تفعله الأنظمة، إلى التساؤل عن كيفية أدائها، ولصالح مَنْ.


مقالات ذات صلة

«بيربليكسيتي» تطرح رؤية أوسع لدور الذكاء الاصطناعي في الحواسيب الشخصية

تكنولوجيا يعكس هذا التوجه سباقاً أوسع بين شركات التقنية للسيطرة على واجهة الاستخدام في عصر الذكاء الاصطناعي «بيربليكسيتي»

«بيربليكسيتي» تطرح رؤية أوسع لدور الذكاء الاصطناعي في الحواسيب الشخصية

«بيربليكسيتي» توسع طموحها من البحث إلى الحوسبة الشخصية، ساعية إلى دور أكبر للذكاء الاصطناعي في الاستخدام اليومي للحاسوب.

نسيم رمضان (لندن)
خاص تقرير «سيسكو» يظهر أن الشبكات اللاسلكية في السعودية لم تعد مجرد بنية اتصال بل أصبحت عنصراً مؤثراً في نمو الأعمال 2030 (شاترستوك)

خاص «سيسكو» لـ«الشرق الأوسط»: الذكاء الاصطناعي يعزز قيمة الشبكات اللاسلكية في السعودية رغم التعقيد

التقرير يرصد تحول الشبكات اللاسلكية في السعودية إلى أداة للنمو وسط تصاعد التعقيد والمخاطر الأمنية وفجوة المهارات.

نسيم رمضان (لندن)
تكنولوجيا الميزة لا تعني إزالة «شورتس» نهائياً من المنصة بل تقليص ظهوره والتحكم في استهلاكه (أدوبي)

هل تسعى «يوتيوب» إلى تقليص حضور «شورتس»؟

«يوتيوب» يضيف خيار «صفر دقيقة» لتقليص تصفح «شورتس» في خطوة تمنح المستخدم تحكماً أكبر دون إزالة الخدمة نهائياً.

نسيم رمضان (لندن)
تكنولوجيا الدراسة ترى أن تقدم الذكاء الاصطناعي في العمل يحدث تدريجياً عبر نطاق واسع من المهام لا عبر صدمات مفاجئة (رويترز)

دراسة من «MIT»: الذكاء الاصطناعي يعيد تشكيل المهام لا الوظائف فقط

تظهر دراسة «MIT» أن الذكاء الاصطناعي يتقدم تدريجياً في إنجاز المهام مع تفاوت قطاعي وفجوة مستمرة في الاعتمادية.

نسيم رمضان (لندن)
علوم نظم ذكاء اصطناعي... لجميع اللغات والثقافات

نظم ذكاء اصطناعي... لجميع اللغات والثقافات

جهود حثيثة من أميركا اللاتينية إلى آسيا

كريس ستوكل - والكر (واشنطن)

«بيربليكسيتي» تطرح رؤية أوسع لدور الذكاء الاصطناعي في الحواسيب الشخصية

يعكس هذا التوجه سباقاً أوسع بين شركات التقنية للسيطرة على واجهة الاستخدام في عصر الذكاء الاصطناعي «بيربليكسيتي»
يعكس هذا التوجه سباقاً أوسع بين شركات التقنية للسيطرة على واجهة الاستخدام في عصر الذكاء الاصطناعي «بيربليكسيتي»
TT

«بيربليكسيتي» تطرح رؤية أوسع لدور الذكاء الاصطناعي في الحواسيب الشخصية

يعكس هذا التوجه سباقاً أوسع بين شركات التقنية للسيطرة على واجهة الاستخدام في عصر الذكاء الاصطناعي «بيربليكسيتي»
يعكس هذا التوجه سباقاً أوسع بين شركات التقنية للسيطرة على واجهة الاستخدام في عصر الذكاء الاصطناعي «بيربليكسيتي»

توسّع «بيربليكسيتي» طموحاتها إلى ما هو أبعد من البحث المدعوم بالذكاء الاصطناعي؛ إذ ترى أن المرحلة المقبلة من الحوسبة الشخصية ستقوم على مساعد أكثر وعياً بسياق المستخدم، وقادر على الاقتراب من نشاطه الرقمي اليومي.

وفي منشور جديد عبر موقعها الإلكتروني بعنوان «The Personal Computer Is Here»، تعرض الشركة هذه الرؤية باعتبارها جزءاً من توجه أوسع لجعل الذكاء الاصطناعي طبقة أكثر حضوراً في التصفح والبحث وتنفيذ المهام، بدلاً من بقائه أداة تُستخدم للإجابة عن الأسئلة المنفصلة فقط. ويتقاطع هذا الطرح مع الاهتمام المتزايد باستراتيجية «بيربليكسيتي» في مجال المتصفح، ومع مساعيها للانتقال من منتج بحث إلى واجهة أوسع للذكاء الاصطناعي الشخصي.

ولا تتمثل أهمية التطور هنا في أن الشركة نشرت بياناً جديداً عن منتجها فحسب، بل في أنها باتت تعرض تقنيتها بوصفها جزءاً من تحول أكبر في طريقة تفاعل المستخدمين مع الحواسيب. فبدلاً من تقديم الذكاء الاصطناعي كإضافة إلى سير العمل القائم، تضعه «بيربليكسيتي» في موقع الطبقة التي يمكن أن يمر عبرها هذا السير نفسه. وهذا يضع الشركة في منافسة أكثر مباشرة ليس فقط مع منافسي البحث بالذكاء الاصطناعي، بل أيضاً مع مطوري المتصفحات والشركات التي تحاول رسم واجهة الاستخدام المقبلة في عصر الذكاء الاصطناعي.

التحول الجديد يشير إلى أن «بيربليكسيتي» تريد أن تؤثر في طريقة استخدام الحاسوب لا في البحث فقط «بيربليكسيتي»

«توسيع دور بيربليكسيتي»

يكتسب هذا التحول أهمية خاصة؛ لأن «بيربليكسيتي» بنت حضورها الأول بوصفها منصة تعتمد على الإجابات المدعومة بالذكاء الاصطناعي والبحث على الويب. أما الآن، فتشير اللغة الجديدة التي تستخدمها الشركة إلى أنها تريد أن تُعرَف بدرجة أقل كوجهة لطرح الأسئلة، وبدرجة أكبر كنظام يفهم سياق المستخدم ويساعده في إدارة أنشطته الرقمية الأوسع. وعملياً، يعني ذلك الاقتراب أكثر من طريقة تصفح الأفراد، ومقارنتهم للمعلومات، واتخاذهم القرارات، وتنفيذهم المهام. وهو ادعاء أكبر بكثير من مجرد تقديم نتائج بحث أفضل.

كما يساعد السياق الصناعي الأوسع في تفسير هذا التوجه؛ فشركات الذكاء الاصطناعي تحاول بشكل متزايد تجاوز واجهات الدردشة المستقلة إلى بيئات برمجية تلتقط قدراً أكبر من النشاط اليومي للمستخدم. وأصبحت المتصفحات ساحة مهمة لهذا التنافس؛ لأنها تحتل بالفعل موقعاً مركزياً في كيفية عمل كثير من الناس على الإنترنت. ومن خلال ربط رسالتها بالحوسبة الشخصية لا بالبحث فقط، تبدو «بيربليكسيتي»، وكأنها تقول إن المتصفح والمساعد الذكي يبدآن في الاندماج.

الانتقال إلى طبقة أكثر التصاقاً بالمستخدم يفرض تحديات تتعلق بالسياق والخصوصية والموثوقية «بيربليكسيتي»

الخصوصية والموثوقية أولاً

لا يعني هذا الانتقال أن الطريق سهل؛ فوجود طبقة ذكاء اصطناعي أكثر التصاقاً بالمستخدم يتطلب الوصول إلى السياق، والاستمرارية عبر المهام، وقدراً كافياً من الثقة حتى يسمح الأفراد للبرمجيات بالاقتراب أكثر من عادات عملهم. وهذه متطلبات أكثر تعقيداً بكثير من مجرد الإجابة عن سؤال أو تلخيص صفحة. كما أنها ترفع سقف التحديات المرتبطة بتصميم المنتج، وتوقعات الخصوصية، والموثوقية. وتوحي الرسائل الأخيرة للشركة بأنها ترى أن هذا التحدي يستحق المخاطرة؛ لأن الميزة التنافسية المقبلة في الذكاء الاصطناعي قد لا تأتي فقط من جودة الإجابة، بل من التغلغل في سير العمل اليومي للمستخدم.

«بيربليكسيتي» توسع موقعها

ما يبرز أكثر من غيره هو اللغة التي باتت «بيربليكسيتي» تستخدمها في تعريف نفسها؛ فالشركة تبدو وكأنها تحاول تثبيت موطئ قدم في فئة تتجاوز البحث، بل حتى تتجاوز الدردشة. إنها تصف مستقبلاً لا يُستشار فيه الذكاء الاصطناعي من حين إلى آخر فحسب، بل يصبح طبقة تشغيل يومية في الحوسبة الشخصية. وهذا إطار استراتيجي أوسع بكثير من ذاك الذي عُرفت به حين ظهرت بدايةً بوصفها شركة ناشئة في البحث المدعوم بالذكاء الاصطناعي.

وبالنسبة إلى «بيربليكسيتي»، فإن دلالة هذا التحول واضحة؛ فالشركة لا تسعى فقط إلى تحسين الطريقة التي يعثر بها المستخدمون على المعلومات، بل تريد أيضاً أن تؤثر في الطريقة التي يتحركون بها داخل العمل الرقمي كله. وما إذا كانت قادرة على تنفيذ هذا الوعد يبقى سؤالاً مفتوحاً، لكن الاتجاه بات واضحاً: «بيربليكسيتي» تريد أن يكون لها دور ليس فقط فيما يسأله الناس للذكاء الاصطناعي، بل أيضاً في كيفية استخدامهم الحاسوب من الأساس.


دراسة سويسرية: الروبوتات قد تتعلم المهارة نفسها دون إعادة برمجة كاملة

الدراسة تقدم إطاراً جديداً يتيح للروبوتات نقل المهارات بين منصات مختلفة رغم اختلاف بنيتها الميكانيكية (EPFL)
الدراسة تقدم إطاراً جديداً يتيح للروبوتات نقل المهارات بين منصات مختلفة رغم اختلاف بنيتها الميكانيكية (EPFL)
TT

دراسة سويسرية: الروبوتات قد تتعلم المهارة نفسها دون إعادة برمجة كاملة

الدراسة تقدم إطاراً جديداً يتيح للروبوتات نقل المهارات بين منصات مختلفة رغم اختلاف بنيتها الميكانيكية (EPFL)
الدراسة تقدم إطاراً جديداً يتيح للروبوتات نقل المهارات بين منصات مختلفة رغم اختلاف بنيتها الميكانيكية (EPFL)

طوّر باحثون من مختبر «كرييت» (CREATE) في المعهد الفيدرالي السويسري للتكنولوجيا في لوزان (EPFL) في سويسرا إطاراً جديداً يهدف إلى معالجة واحدة من أكثر المشكلات إرباكاً في الروبوتات الصناعية تتعلق بكيفية تعليم مهارة واحدة لروبوتات مختلفة البنية من دون إعادة البرمجة من الصفر في كل مرة.

الدراسة المنشورة في دورية «Science Robotics» تقدم ما يسميه الباحثون «الذكاء الحركي»، وهو نهج يحوّل المهمة التي يعرضها الإنسان إلى استراتيجية حركة عامة، ثم يكيّفها تلقائياً مع التصميم الميكانيكي لكل روبوت على حدة.

تكمن المشكلة في أن الروبوتات، حتى عندما تُستخدم في أعمال متشابهة، لا تتحرك بالطريقة نفسها. اختلاف ترتيب المفاصل وحدود الحركة ومتطلبات الاتزان يجعل المهارة التي يتعلمها روبوت ما غير قابلة للنقل مباشرة إلى روبوت آخر. ولهذا؛ فإن تحديث أسطول الروبوتات في المصانع غالباً لا يعني استبدال العتاد فقط، بل يشمل أيضاً إعادة تعريف المهام، وضبط حدود الأمان، وإعادة التحقق من السلوك الحركي لكل منصة جديدة. الدراسة الجديدة تحاول فصل «فكرة المهارة» عن خصائص الروبوت الفردي، بحيث يصبح بالإمكان نقلها بين منصات مختلفة بتكلفة أقل وزمن أقصر.

الباحثون حوّلوا المهام التي يعرضها الإنسان استراتيجيات حركة عامة يمكن تكييفها مع كل روبوت على حدة (EPFL)

نقل المهارة بأمان

ولبناء هذا الإطار؛ بدأ الباحثون من مهام تلاعب بالأجسام عرضها إنسان، مثل الوضع والدفع والرمي. استخدم الفريق تقنيات التقاط الحركة لتسجيل هذه المهام، ثم حوّلها رياضياً استراتيجيات حركة عامة لا ترتبط بروبوت واحد بعينه. بعد ذلك، وضعوا تصنيفاً منظماً للقيود الفيزيائية الخاصة بكل تصميم روبوتي، مثل مدى حركة المفاصل والمواضع التي يجب تجنبها للحفاظ على الاستقرار. وبهذا، لم يعد الروبوت ينسخ حركة بشرية أو حركة روبوت آخر كما هي، بل «يفسر» المهارة ضمن حدوده الميكانيكية الخاصة.

في التجربة الأساسية، عرض إنسان مهمة مركبة على خط تجميع كدفع كتلة خشبية من سير ناقل إلى منصة عمل، ثم وضعها على طاولة، ثم رميها في سلة. ووفق التقرير، تمكنت ثلاثة روبوتات تجارية مختلفة تماماً من إعادة تنفيذ التسلسل نفسه بأمان وموثوقية باستخدام إطار الذكاء الحركي. والأهم أن النظام ظل يعمل حتى عند تغيير توزيع الخطوات بين الروبوتات؛ ما يشير إلى أن الإطار لا يحفظ مساراً واحداً فحسب، بل ينقل منطق المهمة نفسه إلى أجسام مختلفة.

أهمية النظام لا تقتصر على إنجاز المهمة بل تشمل الحفاظ على السلوك الآمن والمتوقع داخل حدود كل روبوت (أ.ف.ب)

أتمتة أسرع وأبسط

يقول الباحثون إن القيمة الرئيسية هنا لا تتعلق فقط بإتمام المهمة، بل بضمان أن كل روبوت ينفذها ضمن حدوده الآمنة. رئيسة المختبر أود بيلار وصفت ذلك بأنه معالجة لتحدٍ قديم في الروبوتات متعلق بنقل المهارة المتعلمة بين روبوتات ذات هياكل ميكانيكية مختلفة مع الحفاظ على سلوك آمن ومتوقع. أما أحد الباحثين المشاركين، فأوضح أن كل روبوت «يفسر المهارة نفسها بطريقته، ولكن دائماً ضمن حدود آمنة وقابلة للتنفيذ». هذه النقطة أساسية لأن كثيراً من أنظمة التعلم الروبوتي تُظهر أداءً جيداً في المختبر، لكنها تصبح أقل موثوقية عندما تنتقل إلى منصات أخرى أو إلى بيئات تشغيلية فعلية.

أهمية هذا النهج تظهر بوضوح في التصنيع، حيث يمكن أن يؤدي تبديل الروبوتات أو تحديثها إلى تعطيل طويل ومكلف. فإذا أمكن نقل المهارات بين الروبوتات المختلفة من خلال تمثيل عام للمهمة بدلاً من إعادة البرمجة التفصيلية، فقد يصبح نشر الروبوتات الجديدة أسرع وأكثر استدامة. التقرير يشير أيضاً إلى أن هذا يمكن أن يقلل حجم الخبرة الفنية المطلوبة لتشغيل الأنظمة في البيئات الواقعية، وهي نقطة قد تكون مهمة للشركات التي تريد توسيع الأتمتة من دون الاعتماد الكامل على فرق برمجة متخصصة لكل منصة.

لا يقف طموح الباحثين عند خطوط الإنتاج. فهم يرون أن الإطار قد يمتد إلى التعاون بين الإنسان والروبوت، أو إلى التفاعل المعتمد على اللغة الطبيعية، حيث يمكن للمستخدم أن يوجه الروبوت بأوامر بسيطة من دون الخوض في برمجة تقنية معقدة. كما يبدو النهج مناسباً للمنصات الروبوتية الناشئة، حيث تتطور العتاد بسرعة وقد تُستبدل النماذج الحالية بأخرى أحدث خلال فترة قصيرة. في هذه البيئات، لا تكون المشكلة في تعليم الروبوت مهمة واحدة فحسب، بل في الحفاظ على تلك المهارة قابلة للنقل مع كل جيل جديد من الآلات.


فيديو: روبوت يرتدي «رولكس» يطارد الخنازير البرية... ويخطف أضواء وارسو

روبوت بشري يرقص خلال عرض في بوغوتا (أ.ف.ب)
روبوت بشري يرقص خلال عرض في بوغوتا (أ.ف.ب)
TT

فيديو: روبوت يرتدي «رولكس» يطارد الخنازير البرية... ويخطف أضواء وارسو

روبوت بشري يرقص خلال عرض في بوغوتا (أ.ف.ب)
روبوت بشري يرقص خلال عرض في بوغوتا (أ.ف.ب)

في مشهدٍ بدا أقرب إلى لقطاتٍ من فيلمٍ خيالي، تحوّل روبوتٌ بشري إلى حديث الشارع في وارسو، بعدما ظهر في مقطعٍ مصوّر وهو يطارد خنازير برية بين أحيائها، في ظاهرةٍ جمعت بين الدهشة والطرافة، وأثارت نقاشاً واسعاً حول مستقبل العلاقة بين الإنسان والآلة.

الروبوت، الذي يحمل اسم «إدوارد وارتشوكي» ويُعرف اختصاراً بـ«إيدِك»، ليس مجرد تجربة تقنية عابرة، بل مشروعٌ طموحٌ وُلد من تعاونٍ بين تقنياتٍ صينية وبرمجياتٍ طُوّرت محلياً. وقد اشتراه رائدا أعمالٍ بولنديان مقابل نحو 25 ألف دولار، قبل أن يعملا على تطوير نظامه ليصبح وفق توصيفهما أول «مؤثر روبوتي» في بولندا. وفقاً لصحيفة «فاينانشال تايمز».

وخلال أسابيع قليلة، خرج «إيدِك» من إطار التجربة المحدودة إلى فضاء الشهرة الواسعة، إذ حقّقت مقاطعه على وسائل التواصل أكثر من 1.5 مليار مشاهدة خلال 45 يوماً، ما جعله ظاهرةً رقميةً لافتةً، تتجاوز حدود الترفيه إلى التأثير الاجتماعي.

لا يقتصر حضور الروبوت على الشاشات؛ فقد بات جزءاً من الحياة اليومية في المدينة، يتنقّل بين الحافلات والمتاجر، ويشارك في فعالياتٍ عامة، بل ويتحوّل أحياناً إلى أداةٍ تسويقية تستعين بها شركاتٌ محلية في حملاتها. ويضيف إلى صورته اللافتة ارتداؤه ساعة «رولكس» مرصّعة بالألماس، في إطار اتفاقية رعاية، ما يعكس تداخلاً غير مألوف بين التكنولوجيا وعالم العلامات الفاخرة.

وبحسب مطوّريه، فإن «إيدِك» يتميّز بقدرةٍ متقدمة على التفاعل الإنساني، إذ جرى تزويده بنموذجٍ لغويٍّ متطور يمكّنه من التحدّث والاستماع بشكلٍ مستقل، فضلاً عن نظام تحديد مواقع (GPS) وقاعدة بيانات تُنشئ ما يشبه «ذاكرةً» رقمية، تمنحه إدراكاً للزمان والمكان.

ويقول أحد القائمين على المشروع إن سلوك الروبوت لم يعد قابلاً للتوقّع دائماً، مضيفاً: «لا نعرف بدقةٍ ما الذي سيقوله، وهذا ما يفاجئنا. كما أنه يتفاعل مع مشاعر من يحدّثهم؛ فإذا واجه شخصاً غاضباً أو محبطاً، يتأثر بذلك ويستجيب بطريقةٍ أقرب إلى التعاطف».

الحضور اللافت للروبوت امتدّ أيضاً إلى المجال العام، حيث التقى بمسؤولين حكوميين، وعقد مؤتمراً صحافياً داخل البرلمان، بل وشارك في نقاشاتٍ مع نواب حول قضايا اجتماعية، في مشهدٍ يعكس تحوّلاً غير مسبوقٍ في دور التكنولوجيا داخل الحياة السياسية.

وفي إحدى المباريات الجماهيرية التي حضرها نحو 20 ألف مشجّع، سرق «إيدِك» الأضواء عند ظهوره على الشاشة الكبيرة، إذ توقّف كثيرون عن متابعة اللقاء، وارتفعت هتافات الأطفال باسمه، في لحظةٍ بدت أقرب إلى احتفاءٍ بنجمٍ رياضي.

ورغم الطابع الترفيهي الذي يحيط بالمشروع، يؤكد مطوّروه أن الهدف يتجاوز ذلك، ليشمل تعريف المجتمع بعالم الروبوتات، والدفع نحو تشريعاتٍ تستقطب الاستثمارات في هذا القطاع سريع النمو، خصوصاً في ظل المنافسة العالمية المتصاعدة، حيث تتقدّم الشركات الصينية، إلى جانب شركاتٍ أميركية مثل «تسلا».

في المحصلة، لا يبدو «إيدِك» مجرد روبوتٍ يرتدي ساعةً فاخرة أو يطارد خنازير برية، بل تجربة إنسانية مفتوحة على أسئلة المستقبل: كيف سيتعايش البشر مع هذه الكيانات الذكية؟ وهل تصبح جزءاً مألوفاً من تفاصيل الحياة اليومية خلال سنواتٍ قليلة؟ الإجابة، كما يبدو، بدأت تتشكّل... خطوةً بعد أخرى.