الذكاء الاصطناعي وتزييف مقاطع الفيديو

أهم المؤشرات للتحقق منها

الذكاء الاصطناعي وتزييف مقاطع الفيديو
TT

الذكاء الاصطناعي وتزييف مقاطع الفيديو

الذكاء الاصطناعي وتزييف مقاطع الفيديو

بدا المقطع حقيقياً وموثقاً وممتعاً: لقطة من كاميرا مراقبة، تُظهر ذئباً برياً يقفز على ترمبولين في فناء خلفي في مدينة لوس أنجليس. بعد أيام من انتشار الفيديو، بدأت مقاطع فيديو مشابهة تماماً لكنغر ودببة وأرانب في الانتشار هي الأخرى، وكلها مُولّدة بواسطة الذكاء الاصطناعي. وشارك الملايين هذه المقاطع، لاعتقادهم أنهم التقطوا لمحة أخرى عن حيوانات تتصرف بطريقة طريفة... كان هذا خطأً طريفاً، لكنه كان في الوقت ذاته بمثابة تحذير.

يكمن الخطر في أن أدوات الفيديو المُولّدة بالذكاء الاصطناعي تجاوزت إنتاج مقاطع سريالية أو مُعدّلة بشكل واضح، وشرعت الآن في تقليد صيغ نثق بها غريزياً: من خلال صور لكاميرات المراقبة، وكاميرات السيارات، والكاميرات الشخصية التي يرتديها أفراد الشرطة، والكاميرات الموجهة لمتابعة الحياة البرية، واللقطات التي يصورها شهود عيان بجوالاتهم. وتلعب هذه المقاطع دوراً محورياً في صياغة فهم الجمهور للوضع القائم، في أثناء الاحتجاجات والكوارث وأعمال العنف وحالات الطوارئ. واليوم أصبح من المتعذر تمييز المقاطع المُزيّفة عن الحقيقية.

مزايا ومضار

• مقاطع واقعية مولدة اصطناعياً للأخبار. واللافت أن المقاطع الواقعية المُولّدة بالذكاء الاصطناعي اقتحمت بالفعل دوائر الأخبار.

في مؤسسة «ستوريفول»، يتحقق العاملون من آلاف مقاطع الفيديو الواقعية لصالح غرف الأخبار وعلامات تجارية حول العالم. وقد أجروا هذا العام اختباراً مثيراً: فقد أدخلوا عناوين الأخبار العاجلة الحقيقية من منصة المؤسسة إلى أحد أحدث نماذج الفيديو المُولّدة بالذكاء الاصطناعي.

وفي غضون ثوانٍ، حصلوا على مقاطع فيديو تُحاكي ملمس ومنظور التقارير، التي يوردها شهود عيان. وما حصلوا عليه ليس تجارب ذكاء اصطناعي مُنمّقة، بل لقطات إخبارية واقعية يُمكن أن تشق طريقها إلى داخل غرفة الأخبار في أثناء تغطية خبر عاجل. ولتماثلها، فإن الصحافيين المُدرّبين احتاجوا بهدف مقارنتها مع المقاطع الحقيقية الأصلية، إلى التمهل والتدقيق في التفاصيل.

وتجدر الإشارة إلى أن «ستوريفول» (Storyful) وكالة أخبار يستخدمها 70 في المائة من أكبر 20 غرفة أخبار عالمياً، ومتخصصة في التحقق من الأخبار العاجلة والفيديوهات الرائجة.

• تلاشي الضوابط الواقية من التزييف. اليوم، بدأت الضوابط التي تحمينا من التزييف بالتلاشي بالفعل. على سبيل المثال، تنتشر على موقع «ريديت» منشورات تشرح كيفية إزالة العلامة المائية من مقاطع الفيديو، التي يُنشئها برنامج «سورا» من «أوبن إيه آي»، أحد أشهر مولدات الفيديو بالذكاء الاصطناعي. ويمكن تجاوز القيود المفروضة على بعض أوامر الذكاء الاصطناعي - إن وُجدت - أو تشغيل النماذج محلياً دون قيود على المحتوى الواقعي للغاية. ولأن هذه الأدوات قادرة على إنشاء لقطات كاميرات مراقبة أو لقطات كوارث مزيفة عند الطلب، فإن السؤال هنا ليس ما إذا كان الذكاء الاصطناعي قادراً على توليد مقاطع فيديو مقنعة لأحداث لم تقع، بل إلى أي مدى سينتشر هذا الفيديو المزيف قبل أن يقدم أحد على التحقق منه؟

إتقان التزييف

• لماذا تبدو مقاطع الفيديو المُولّدة بالذكاء الاصطناعي واقعية؟ لا يقتصر التغيير الأهم في مقاطع الفيديو المُولّدة بالذكاء الاصطناعي على مظهرها فحسب، بل يشمل سلوكها كذلك. بطبيعتها، تحتوي لقطات شهود العيان الحقيقية على عيوب الحياة الواقعية: يد مرتعشة، وكاميرا موجهة نحو الأرض قبل بدء الحدث، وفترات طويلة من السكون، وزوايا تصوير غير مثالية، وتفاصيل مفقودة.

حتى يومنا هذا، لا يُحاكي الذكاء الاصطناعي هذه اللحظات حتى الآن؛ فهو ينتقل مباشرةً إلى الحدث، بإطار مركزي مثالي، وإضاءة نقية، وإيقاع مُتقن في مشهد مُصمّم لتحقيق أقصى تأثير. بعبارة أخرى، يُقدّم لنا الذكاء الاصطناعي اللحظة التي نتوقع رؤيتها، دون التمهيد البشري المُربك الذي يُحيط بها عادةً.

أما السبب فبسيط؛ لا تزال معظم النماذج يجري تدريبها بشكل مكثف على مواد سينمائية، بدلاً من المحتوى العشوائي الذي يُنتجه المستخدمون بكاميرات محمولة. والواضح أن نماذج الذكاء الاصطناعي تُدرك الدراما بشكل أفضل من إدراكها للواقع. وهذه الفجوة تحديداً هي ما يسمح لفرق التحقق برصد هذا الاختلاف - في الوقت الحالي.

إلا أنه مع تطور النماذج وتحسين كتابة التعليمات، ستتلاشى هذه المؤشرات السلوكية. وتتضمن بيانات التدريب لنماذج الفيديو هذه مقاطع فيديو مهتزة التقطها المارة وأفلاماً وثائقية متقنة، ما يسمح لها بمحاكاة أسلوبها وإحساسها بالواقعية ببراعة.

• ثقة الجمهور تتراجع. حسب «تقرير رويترز للأخبار الرقمية»، فإن 58 في المائة من المشاهدين حول العالم يخشون عدم قدرتهم على التمييز بين الحقيقي والمزيف على الإنترنت. فيما مضى، تركز هذا الخوف بشكل رئيسي على السياسة والدعاية، أما الآن فيشمل مقاطع الفيديو المنزلية البسيطة.

وينطوي هذا الأمر بدوره على تحول نفسي أعمق؛ فبمجرد أن يبدأ المشاهد بالتشكيك في مقاطع الفيديو اليومية، فإنه لا يتخلى عن هذا التشكيك بسهولة. فإذا شكك في عملية إنقاذ كلب، فستمتد شكوكه على مقاطع مصورة لاحتجاجات. وإذا شك في مزحة، فسيشك بعدها في حقيقة ما يجري داخل منطقة حرب.

في الواقع، لا تنهار الثقة في لحظة درامية واحدة، بل تتآكل قطرة قطرة، عبر آلاف الشكوك الصغيرة. ومع ازدياد وفرة مقاطع الفيديو المولدة بالذكاء الاصطناعي، تتحول اللقطات الأصلية إلى عملة نادرة.

التحقق من تزييف الفيديو

• كيف تعرف ما إذا كان فيديو مولداً بالذكاء الاصطناعي؟ بالتأكيد يمكن أن تُشكّل أدوات الكشف بالذكاء الاصطناعي جزءاً مفيداً من جهودك على هذا الصعيد، لكنها لا تغني عن التحقق البشري. وحسب تحليل أجرته مؤسسة «ستوريفول»، تحقق الأدوات الحالية دقة تتراوح بين 65 في المائة و75 في المائة في الظروف المثالية، لكن هذه الدقة تتراجع إلى أقل من 50 في المائة في غضون أسابيع من إطلاق نموذج ذكاء اصطناعي جديد. وفيما يلي المؤشرات، التي تستخدمها فرق التحقق في «ستوريفول» يومياً ـ وهي مؤشرات يمكن للجمهور تعلم تمييزها بسرعة.

1- الذكاء الاصطناعي يبدأ من ذروة الحدث: اللقطات الحقيقية غالباً ما تتضمن وقتاً ميتاً، بمعنى أن (الفيديو المزيف) يخلو من أحداث مهمة، أو حالة من الارتباك قبل بدء الحدث.

2- الأشخاص محل الاهتمام يتموضعون في منتصف الإطار بدقة: نادراً ما يلتقط شهود العيان فوضى الأخبار العاجلة كما يفعل المصورون المحترفون.

3- الحركة ناعمة أكثر من اللازم: بينما المحتوى الحقيقي الذي يصنعه المستخدمون يهتزّ، ويتقطّع، ويُعيد التركيز، وينزلق.

4- الطوابع الزمنية واللافتات ولوحات المركبات تتهاوى عند التدقيق: في الغالب يرسم الذكاء الاصطناعي صورة تقريبية لهذه التفاصيل، بدلاً من أن يرسمها بدقة.

5- مقاطع الكوارث والحياة البرية تبدو «منظمة أكثر من اللازم»: أما الواقع فمفعم بالمفاجآت، بينما يبدو الذكاء الاصطناعي في كثير من الأحيان مفتعلاً.

للأسف، من غير المرجح أن تصمد هذه المؤشرات إلى الأبد، لكنها اليوم توفّر حماية بالغة الأهمية.

الأصالة أصبحت كنزاً ثميناً

يمكن للمنصات التكنولوجية إضافة مزيد من الضوابط الوقائية إلى أدوات توليد الفيديو لديها، ويمكن للجهات التنظيمية تحديث الأطر، كما يمكن لأدوات الكشف أن تتحسن، وكذلك قدراتنا النقدية. ومع مساعدة غرف الأخبار للجمهور على الإبحار في خضم مستنقع التزييف، فإن أكثر الطرق تأثيراً لإعادة بناء الثقة الشفافية.

لم يعد الجمهور يثق بعبارة «تقول المصادر»، وإنما يرغب في أن يرى كيف يعرف الصحافي أو غرفة الأخبار أن مادة ما حقيقية.

والملاحظ أن ثمة أعداد كبيرة من المؤسسات الإخبارية تولي أولوية للتحقق المسبق، مثل «بي بي سي فيريفاي» و«سي بي إس نيوز كنفيرمد»، التي تدمج فحوصات مفتوحة المصدر وأدلة جنائية رقمية في التغطية، عبر فحص المصدر، والصور، وأنماط البيانات الوصفية، وتحديد الموقع الجغرافي، عندما تقتضي الحاجة. كما يزوّد «ستوريفول نيوزواير» شركاءه جميعاً بهذه التفاصيل الأساسية ـ والضرورية ـ عن كل فيديو على منصته.

وتمثل هذه الشفافية الفارق الحاسم في بيئة أصبح فيها الفيديو المُولَّد بالذكاء الاصطناعي رخيصاً وسريعاً ومتاحاً في كل مكان. وكلما غمرت اللقطات المُولَّدة بالذكاء الاصطناعي المجال العام، زادت مصداقية المؤسسات التي تجعل «إظهار طريقة العمل» جزءاً أساسياً من القصة.

الحقيقة أن أكثر فيديوهات الإنترنت رسوخاً في الذاكرة لم تكن يوماً مثالية، وإنما جاءت غير متوقعة، مليئة بالعيوب، وإنسانية ـ وهي تحديداً تلك اللحظات التي لا يزال الذكاء الاصطناعي عاجزاً عن تخيّلها. ومع أن اللقطات المُولَّدة بالذكاء الاصطناعي أصبحت قادرة على محاكاة اللغة البصرية للحقيقة، فإنها تظل عاجزة عن إعادة إنتاج عشوائية الحياة الواقعية. وما هو على المحك وعندما تنجح في ذلك، فإن ما يصبح على المحك هنا ليس مجرد التضليل، بل قدرة الجمهور على الوثوق بما يراه في اللحظات الأهم.

* رئيس تحرير «ستوريفول»، مجلة «فاست كومباني»



خبير دولي لـ«الشرق الأوسط»: الحروب تنتقل تدريجياً من ساحات القتال إلى مراكز البيانات

نحاس أكد أن الحروب بدأت تنتقل تدريجياً من ساحات القتال الميدانية إلى مراكز البيانات (شترستوك)
نحاس أكد أن الحروب بدأت تنتقل تدريجياً من ساحات القتال الميدانية إلى مراكز البيانات (شترستوك)
TT

خبير دولي لـ«الشرق الأوسط»: الحروب تنتقل تدريجياً من ساحات القتال إلى مراكز البيانات

نحاس أكد أن الحروب بدأت تنتقل تدريجياً من ساحات القتال الميدانية إلى مراكز البيانات (شترستوك)
نحاس أكد أن الحروب بدأت تنتقل تدريجياً من ساحات القتال الميدانية إلى مراكز البيانات (شترستوك)

أكد خبير في الذكاء الاصطناعي أن البشرية تقف اليوم أمام تحول تاريخي يتجاوز تطوير أسلحة تقليدية؛ إذ نشهد انتقالاً عميقاً للحروب من عصر القوة الميكانيكية العنيفة إلى عصر «الخوارزميات الفتاكة»، مشدّداً على أن الانتصار في الميدان لم يعد يعتمد فقط على شجاعة الجنود أو كثافة النيران، بل بات مرتبطاً بسرعة معالجة البيانات، وقدرة الأنظمة الذكية على تحليل المواقف المعقدة في لحظات حاسمة.

تحول السيادة من «الذراع» إلى «العقل»

وأوضح الدكتور محمود نديم نحاس، الخبير في الذكاء الاصطناعي بأكاديمية المستقبل الدولية في لندن، لـ«الشرق الأوسط»، أن الحروب بدأت تنتقل تدريجياً من ساحات القتال الميدانية إلى مراكز البيانات، ومن ضجيج المدافع إلى هدوء الخوارزميات، لتصبح سباقاً بين الأكواد البرمجية، لافتاً إلى أن مفهوم السيادة شهد تغيراً جذرياً، فبعد أن كانت السيادة لقوة «الذراع» البشرية في العصور القديمة، انتقلت إلى «العين» عبر أجهزة الاستشعار والأقمار الاصطناعية، لتستقر اليوم في «العقل الإلكتروني» الذي يدير المشهد من وراء الشاشات، وأن هذا التحول جعل من الممكن لخوارزمية واحدة أن «تشل جيشاً كاملاً دون إطلاق رصاصة واحدة».

استراتيجيات خالد بن الوليد وكلاوزفيتز في عصر الآلة

وفي ربط فريد بين الفكر العسكري الكلاسيكي والتقنية الحديثة، ذكر نحاس أن عبقرية القائد خالد بن الوليد في المباغتة وإرباك العدو واستخدام «الكَراديس» بمرونة عالية، تظل أهدافاً استراتيجية ثابتة حتى اليوم، واستطرد موضحاً أن الذكاء الاصطناعي يسعى لتفتيت ما يسمى «ضباب الحرب» الذي تحدث عنه المنظّر العسكري، كارل فون كلاوزفيتز، وهو حالة عدم اليقين والارتباك في الميدان، عبر تقديم خرائط واقع معزز وبيانات لحظية دقيقة، على حد تعبيره، ومع ذلك، حذّر الدكتور نحاس من مخاطرة نشوء «ضباب رقمي» جديد، حيث قد يؤدي تعقيد الخوارزميات إلى قرارات آلية لا يستطيع البشر تفسيرها أو تبريرها بسهولة.

المنظومة الذكية في قلب المعركة

نحّاس قال خلال حديثه إن الذكاء الاصطناعي ليس مجرد سلاح مستقل، بل منظومة تقنية متكاملة تتغلغل في كل مفاصل العمل العسكري، وذلك عبر (تحليل البيانات الضخمة) حيث تستطيع الخوارزميات تحليل ملايين الصور من الأقمار الاصطناعية والمسيّرات في ثوانٍ لتحديد الأهداف وتصنيفها، وهو ما كان يتطلب أياماً من الجهد البشري، إلى جانب الأنظمة المستقلة، على غرار الغواصات غير المأهولة التي تعمل لأشهر تحت الماء، والآليات البرية التي تعبر تضاريس وعرة، مما يمنح الجيوش قدرة على الوصول إلى مناطق كانت تُصنف سابقاً بأنها «انتحارية».

كما يشمل «التنبؤ الاستراتيجي»، حسب نحّاس، وذلك من خلال بناء نماذج محاكاة تتوقع الخطوة التالية للعدو بدقة، مما يحول الاستراتيجية العسكرية من حالة «رد الفعل» إلى «الاستباق الذكي».

درع الحماية والدفاع فرط الصوتي

وأشار نحاس إلى أن إحدى أهم فوائد الذكاء الاصطناعي هي دوره بوصفه «درعاً» واقياً للقوات، وفصّل ذلك عبر تقنية «الصيانة التنبؤية» التي تتوقع تعطل المحركات أو قطع الغيار قبل وقوع العطل، مما يحافظ على الجاهزية القتالية، مؤكّداً أن ظهور الصواريخ «فرط الصوتية» التي تفوق سرعة الصوت بخمس مرات جعل العقل البشري عاجزاً عن اعتراضها، مما حتم الاعتماد على أنظمة الدفاع الذكي التي تتخذ قرار الاعتراض في أجزاء من الثانية.

ثورة المسيّرات و«ذكاء الأسراب»

وفيما يخص التفوق الجوي، أبان أن «الطائرات المسيّرة» الرخيصة والانتحارية قلبت الموازين التقليدية، فلم يعد التفوق حكراً على الطائرات المقاتلة باهظة الثمن، وشرح مفهوم «ذكاء الأسراب» المستوحى من النحل والطيور، حيث تهاجم مئات المسيّرات كتلةً واحدةً ذكيةً تعيد تنظيم نفسها تلقائياً إذا دُمّر جزء منها، مما «يُغرق» أنظمة الرادار التقليدية، معتبراً أن هذا التحول حوّل الحرب إلى معركة اقتصادية استنزافية، حيث تستنزف مسيّرة رخيصة صاروخاً دفاعياً باهظ التكلفة.

اللوجيستيات: المدير الجديد للميدان

شدّد نحاس على أن «المحترفين يتحدثون عن اللوجيستيات»، معتبراً الذكاء الاصطناعي المدير الجديد لهذا الميدان الحيوي، وجادل بأن «الخوارزميات تدير الآن سلاسل الإمداد المؤتمتة لضمان تأمين الوقود والذخيرة قبل طلبها وبأقل جهد بشري»، وعرّج على تطوير شاحنات وقوارب تموين تعمل بلا سائق لنقل الإمدادات عبر مناطق الخطر، مما يحمي الجنود الذين كانوا يسقطون ضحايا للكمائن على طرق الإمداد.

الروبوتات والمسؤولية الأخلاقية

وتطرّق إلى الروبوتات العسكرية أو «الجنود الذين لا ينامون»، مبدياً قلقه العميق من «الأسلحة الفتاكة ذاتية التشغيل»، وأطلق تحذيراً من أن هذه الأنظمة التي تختار أهدافها دون وجود «إنسان في الحلقة» تثير رعب المنظمات الحقوقية لأنها تلغي مفهوم المسؤولية الأخلاقية عن القتل، وتساءل: مَن هو مجرم الحرب في حال وقوع خطأ؟ هل هو المبرمج أم القائد أم الشركة المصنعة؟

الحروب السيبرانية والنفسية الهجينة

وصف نحاس «الفضاء السيبراني» بساحة الحرب الخامسة، حيث يقود الذكاء الاصطناعي حرباً ناعمة لكنها مدمرة، وحذّر من مخاطر «التزييف العميق» التي يمكنها صناعة فيديوهات مزيفة لقادة عسكريين تأمر بالاستسلام، مما ينهي حروباً عبر انهيار الروح المعنوية، واعتبر أن «التضليل المؤتمت» عبر آلاف الحسابات الآلية التي تنشر الشائعات لزعزعة الاستقرار الداخلي، والهجمات السيبرانية الآلية التي تكتشف الثغرات وتشل البنية التحتية والمفاعلات النووية بسرعة تفوق قدرة البشر على الصد.

سيكولوجية الحرب وتجريدها من الإنسانية

ولفت الدكتور نحاس إلى بُعد نفسي خطير لمواجهة آلة صماء؛ فالجندي الذي يشعر بأنه مراقب دائماً من مسيّرة صامتة قد يعيش ضغطاً نفسياً دائماً يؤدي لانسحابات وهزائم دون اشتباك فعلي، كما حذّر من «تجريد الحرب من الإنسانية»، حيث قد يبدأ الضباط الذين يديرون الحرب من خلف الشاشات برؤية البشر كـ«نقاط» أو «أرقام» في لعبة فيديو، مما يقلل الوازع الأخلاقي ويجعل قرار القتل سهلاً نفسياً وتقنياً.

السيادة التقنية وصراع الرقائق

وخلص نحاس إلى أن الحرب باتت صراع «ميزانيات ذكية» و«تقنيات متطورة» لتصنيع المعالجات، واعتبر أشباه الموصلات (Chips) «سلاحاً استراتيجياً» يعادل الصواريخ النووية، مؤكداً أن الاستقلال البرمجي ضرورة قومية؛ لأن الاعتماد على خوارزميات أجنبية يعني منح «مفتاح السيادة» للدول الأخرى.

وأكد الدكتور محمود نديم نحاس في ختام رؤيته أن دخول الذكاء الاصطناعي لا يمثل مجرد تحسين للأدوات، بل إعادة تعريف للقوة والسيادة، وحذر من أن أخطر لحظة هي التي يبدأ فيها الإنسان بالثقة في الآلة أكثر مما ينبغي، مشيراً إلى أن المستقبل سيكون لمن يمتلك الخوارزمية الأذكى، ولكن البقاء سيكون لمن يمتلك الحكمة الكافية للتحكم في الآلة قبل أن تتحكم هي في مصير البشر، خصوصاً أن الآلة تفتقر إلى الرحمة والتقدير الأخلاقي والسياسي الذي يمتلكه القائد البشري.


«بيربليكسيتي» تطرح رؤية أوسع لدور الذكاء الاصطناعي في الحواسيب الشخصية

يعكس هذا التوجه سباقاً أوسع بين شركات التقنية للسيطرة على واجهة الاستخدام في عصر الذكاء الاصطناعي «بيربليكسيتي»
يعكس هذا التوجه سباقاً أوسع بين شركات التقنية للسيطرة على واجهة الاستخدام في عصر الذكاء الاصطناعي «بيربليكسيتي»
TT

«بيربليكسيتي» تطرح رؤية أوسع لدور الذكاء الاصطناعي في الحواسيب الشخصية

يعكس هذا التوجه سباقاً أوسع بين شركات التقنية للسيطرة على واجهة الاستخدام في عصر الذكاء الاصطناعي «بيربليكسيتي»
يعكس هذا التوجه سباقاً أوسع بين شركات التقنية للسيطرة على واجهة الاستخدام في عصر الذكاء الاصطناعي «بيربليكسيتي»

توسّع «بيربليكسيتي» طموحاتها إلى ما هو أبعد من البحث المدعوم بالذكاء الاصطناعي؛ إذ ترى أن المرحلة المقبلة من الحوسبة الشخصية ستقوم على مساعد أكثر وعياً بسياق المستخدم، وقادر على الاقتراب من نشاطه الرقمي اليومي.

وفي منشور جديد عبر موقعها الإلكتروني بعنوان «The Personal Computer Is Here»، تعرض الشركة هذه الرؤية باعتبارها جزءاً من توجه أوسع لجعل الذكاء الاصطناعي طبقة أكثر حضوراً في التصفح والبحث وتنفيذ المهام، بدلاً من بقائه أداة تُستخدم للإجابة عن الأسئلة المنفصلة فقط. ويتقاطع هذا الطرح مع الاهتمام المتزايد باستراتيجية «بيربليكسيتي» في مجال المتصفح، ومع مساعيها للانتقال من منتج بحث إلى واجهة أوسع للذكاء الاصطناعي الشخصي.

ولا تتمثل أهمية التطور هنا في أن الشركة نشرت بياناً جديداً عن منتجها فحسب، بل في أنها باتت تعرض تقنيتها بوصفها جزءاً من تحول أكبر في طريقة تفاعل المستخدمين مع الحواسيب. فبدلاً من تقديم الذكاء الاصطناعي كإضافة إلى سير العمل القائم، تضعه «بيربليكسيتي» في موقع الطبقة التي يمكن أن يمر عبرها هذا السير نفسه. وهذا يضع الشركة في منافسة أكثر مباشرة ليس فقط مع منافسي البحث بالذكاء الاصطناعي، بل أيضاً مع مطوري المتصفحات والشركات التي تحاول رسم واجهة الاستخدام المقبلة في عصر الذكاء الاصطناعي.

التحول الجديد يشير إلى أن «بيربليكسيتي» تريد أن تؤثر في طريقة استخدام الحاسوب لا في البحث فقط «بيربليكسيتي»

«توسيع دور بيربليكسيتي»

يكتسب هذا التحول أهمية خاصة؛ لأن «بيربليكسيتي» بنت حضورها الأول بوصفها منصة تعتمد على الإجابات المدعومة بالذكاء الاصطناعي والبحث على الويب. أما الآن، فتشير اللغة الجديدة التي تستخدمها الشركة إلى أنها تريد أن تُعرَف بدرجة أقل كوجهة لطرح الأسئلة، وبدرجة أكبر كنظام يفهم سياق المستخدم ويساعده في إدارة أنشطته الرقمية الأوسع. وعملياً، يعني ذلك الاقتراب أكثر من طريقة تصفح الأفراد، ومقارنتهم للمعلومات، واتخاذهم القرارات، وتنفيذهم المهام. وهو ادعاء أكبر بكثير من مجرد تقديم نتائج بحث أفضل.

كما يساعد السياق الصناعي الأوسع في تفسير هذا التوجه؛ فشركات الذكاء الاصطناعي تحاول بشكل متزايد تجاوز واجهات الدردشة المستقلة إلى بيئات برمجية تلتقط قدراً أكبر من النشاط اليومي للمستخدم. وأصبحت المتصفحات ساحة مهمة لهذا التنافس؛ لأنها تحتل بالفعل موقعاً مركزياً في كيفية عمل كثير من الناس على الإنترنت. ومن خلال ربط رسالتها بالحوسبة الشخصية لا بالبحث فقط، تبدو «بيربليكسيتي»، وكأنها تقول إن المتصفح والمساعد الذكي يبدآن في الاندماج.

الانتقال إلى طبقة أكثر التصاقاً بالمستخدم يفرض تحديات تتعلق بالسياق والخصوصية والموثوقية «بيربليكسيتي»

الخصوصية والموثوقية أولاً

لا يعني هذا الانتقال أن الطريق سهل؛ فوجود طبقة ذكاء اصطناعي أكثر التصاقاً بالمستخدم يتطلب الوصول إلى السياق، والاستمرارية عبر المهام، وقدراً كافياً من الثقة حتى يسمح الأفراد للبرمجيات بالاقتراب أكثر من عادات عملهم. وهذه متطلبات أكثر تعقيداً بكثير من مجرد الإجابة عن سؤال أو تلخيص صفحة. كما أنها ترفع سقف التحديات المرتبطة بتصميم المنتج، وتوقعات الخصوصية، والموثوقية. وتوحي الرسائل الأخيرة للشركة بأنها ترى أن هذا التحدي يستحق المخاطرة؛ لأن الميزة التنافسية المقبلة في الذكاء الاصطناعي قد لا تأتي فقط من جودة الإجابة، بل من التغلغل في سير العمل اليومي للمستخدم.

«بيربليكسيتي» توسع موقعها

ما يبرز أكثر من غيره هو اللغة التي باتت «بيربليكسيتي» تستخدمها في تعريف نفسها؛ فالشركة تبدو وكأنها تحاول تثبيت موطئ قدم في فئة تتجاوز البحث، بل حتى تتجاوز الدردشة. إنها تصف مستقبلاً لا يُستشار فيه الذكاء الاصطناعي من حين إلى آخر فحسب، بل يصبح طبقة تشغيل يومية في الحوسبة الشخصية. وهذا إطار استراتيجي أوسع بكثير من ذاك الذي عُرفت به حين ظهرت بدايةً بوصفها شركة ناشئة في البحث المدعوم بالذكاء الاصطناعي.

وبالنسبة إلى «بيربليكسيتي»، فإن دلالة هذا التحول واضحة؛ فالشركة لا تسعى فقط إلى تحسين الطريقة التي يعثر بها المستخدمون على المعلومات، بل تريد أيضاً أن تؤثر في الطريقة التي يتحركون بها داخل العمل الرقمي كله. وما إذا كانت قادرة على تنفيذ هذا الوعد يبقى سؤالاً مفتوحاً، لكن الاتجاه بات واضحاً: «بيربليكسيتي» تريد أن يكون لها دور ليس فقط فيما يسأله الناس للذكاء الاصطناعي، بل أيضاً في كيفية استخدامهم الحاسوب من الأساس.


دراسة سويسرية: الروبوتات قد تتعلم المهارة نفسها دون إعادة برمجة كاملة

الدراسة تقدم إطاراً جديداً يتيح للروبوتات نقل المهارات بين منصات مختلفة رغم اختلاف بنيتها الميكانيكية (EPFL)
الدراسة تقدم إطاراً جديداً يتيح للروبوتات نقل المهارات بين منصات مختلفة رغم اختلاف بنيتها الميكانيكية (EPFL)
TT

دراسة سويسرية: الروبوتات قد تتعلم المهارة نفسها دون إعادة برمجة كاملة

الدراسة تقدم إطاراً جديداً يتيح للروبوتات نقل المهارات بين منصات مختلفة رغم اختلاف بنيتها الميكانيكية (EPFL)
الدراسة تقدم إطاراً جديداً يتيح للروبوتات نقل المهارات بين منصات مختلفة رغم اختلاف بنيتها الميكانيكية (EPFL)

طوّر باحثون من مختبر «كرييت» (CREATE) في المعهد الفيدرالي السويسري للتكنولوجيا في لوزان (EPFL) في سويسرا إطاراً جديداً يهدف إلى معالجة واحدة من أكثر المشكلات إرباكاً في الروبوتات الصناعية تتعلق بكيفية تعليم مهارة واحدة لروبوتات مختلفة البنية من دون إعادة البرمجة من الصفر في كل مرة.

الدراسة المنشورة في دورية «Science Robotics» تقدم ما يسميه الباحثون «الذكاء الحركي»، وهو نهج يحوّل المهمة التي يعرضها الإنسان إلى استراتيجية حركة عامة، ثم يكيّفها تلقائياً مع التصميم الميكانيكي لكل روبوت على حدة.

تكمن المشكلة في أن الروبوتات، حتى عندما تُستخدم في أعمال متشابهة، لا تتحرك بالطريقة نفسها. اختلاف ترتيب المفاصل وحدود الحركة ومتطلبات الاتزان يجعل المهارة التي يتعلمها روبوت ما غير قابلة للنقل مباشرة إلى روبوت آخر. ولهذا؛ فإن تحديث أسطول الروبوتات في المصانع غالباً لا يعني استبدال العتاد فقط، بل يشمل أيضاً إعادة تعريف المهام، وضبط حدود الأمان، وإعادة التحقق من السلوك الحركي لكل منصة جديدة. الدراسة الجديدة تحاول فصل «فكرة المهارة» عن خصائص الروبوت الفردي، بحيث يصبح بالإمكان نقلها بين منصات مختلفة بتكلفة أقل وزمن أقصر.

الباحثون حوّلوا المهام التي يعرضها الإنسان استراتيجيات حركة عامة يمكن تكييفها مع كل روبوت على حدة (EPFL)

نقل المهارة بأمان

ولبناء هذا الإطار؛ بدأ الباحثون من مهام تلاعب بالأجسام عرضها إنسان، مثل الوضع والدفع والرمي. استخدم الفريق تقنيات التقاط الحركة لتسجيل هذه المهام، ثم حوّلها رياضياً استراتيجيات حركة عامة لا ترتبط بروبوت واحد بعينه. بعد ذلك، وضعوا تصنيفاً منظماً للقيود الفيزيائية الخاصة بكل تصميم روبوتي، مثل مدى حركة المفاصل والمواضع التي يجب تجنبها للحفاظ على الاستقرار. وبهذا، لم يعد الروبوت ينسخ حركة بشرية أو حركة روبوت آخر كما هي، بل «يفسر» المهارة ضمن حدوده الميكانيكية الخاصة.

في التجربة الأساسية، عرض إنسان مهمة مركبة على خط تجميع كدفع كتلة خشبية من سير ناقل إلى منصة عمل، ثم وضعها على طاولة، ثم رميها في سلة. ووفق التقرير، تمكنت ثلاثة روبوتات تجارية مختلفة تماماً من إعادة تنفيذ التسلسل نفسه بأمان وموثوقية باستخدام إطار الذكاء الحركي. والأهم أن النظام ظل يعمل حتى عند تغيير توزيع الخطوات بين الروبوتات؛ ما يشير إلى أن الإطار لا يحفظ مساراً واحداً فحسب، بل ينقل منطق المهمة نفسه إلى أجسام مختلفة.

أهمية النظام لا تقتصر على إنجاز المهمة بل تشمل الحفاظ على السلوك الآمن والمتوقع داخل حدود كل روبوت (أ.ف.ب)

أتمتة أسرع وأبسط

يقول الباحثون إن القيمة الرئيسية هنا لا تتعلق فقط بإتمام المهمة، بل بضمان أن كل روبوت ينفذها ضمن حدوده الآمنة. رئيسة المختبر أود بيلار وصفت ذلك بأنه معالجة لتحدٍ قديم في الروبوتات متعلق بنقل المهارة المتعلمة بين روبوتات ذات هياكل ميكانيكية مختلفة مع الحفاظ على سلوك آمن ومتوقع. أما أحد الباحثين المشاركين، فأوضح أن كل روبوت «يفسر المهارة نفسها بطريقته، ولكن دائماً ضمن حدود آمنة وقابلة للتنفيذ». هذه النقطة أساسية لأن كثيراً من أنظمة التعلم الروبوتي تُظهر أداءً جيداً في المختبر، لكنها تصبح أقل موثوقية عندما تنتقل إلى منصات أخرى أو إلى بيئات تشغيلية فعلية.

أهمية هذا النهج تظهر بوضوح في التصنيع، حيث يمكن أن يؤدي تبديل الروبوتات أو تحديثها إلى تعطيل طويل ومكلف. فإذا أمكن نقل المهارات بين الروبوتات المختلفة من خلال تمثيل عام للمهمة بدلاً من إعادة البرمجة التفصيلية، فقد يصبح نشر الروبوتات الجديدة أسرع وأكثر استدامة. التقرير يشير أيضاً إلى أن هذا يمكن أن يقلل حجم الخبرة الفنية المطلوبة لتشغيل الأنظمة في البيئات الواقعية، وهي نقطة قد تكون مهمة للشركات التي تريد توسيع الأتمتة من دون الاعتماد الكامل على فرق برمجة متخصصة لكل منصة.

لا يقف طموح الباحثين عند خطوط الإنتاج. فهم يرون أن الإطار قد يمتد إلى التعاون بين الإنسان والروبوت، أو إلى التفاعل المعتمد على اللغة الطبيعية، حيث يمكن للمستخدم أن يوجه الروبوت بأوامر بسيطة من دون الخوض في برمجة تقنية معقدة. كما يبدو النهج مناسباً للمنصات الروبوتية الناشئة، حيث تتطور العتاد بسرعة وقد تُستبدل النماذج الحالية بأخرى أحدث خلال فترة قصيرة. في هذه البيئات، لا تكون المشكلة في تعليم الروبوت مهمة واحدة فحسب، بل في الحفاظ على تلك المهارة قابلة للنقل مع كل جيل جديد من الآلات.