5 طرق يستخدمها المجرمون للذكاء الاصطناعي التوليدي

منها التصيّد الاحتيالي وجمع البيانات الشخصية

5 طرق يستخدمها المجرمون للذكاء الاصطناعي التوليدي
TT

5 طرق يستخدمها المجرمون للذكاء الاصطناعي التوليدي

5 طرق يستخدمها المجرمون للذكاء الاصطناعي التوليدي

توفر نظم الذكاء الاصطناعي التوليدي مجموعة أدوات جديدة وقوية تسمح للجهات الخبيثة في عالم الإجرام بالعمل بكفاءة أكبر وعلى المستوى الدولي أكثر من أي وقت مضى، كما يقول فينشينزو سيانكاجليني، أحد كبار الباحثين في مجال التهديدات في شركة «تريند مايكرو» الأمنية. ويضيف أن معظم المجرمين «لا يعيشون في مخبأ مظلم ويخططون للأشياء... بل إنهم أشخاص عاديون يقومون بأنشطة منتظمة تتطلب إنتاجية أيضاً».

وكان العام الماضي شهد صعود «وورم جي بي تي» (WormGPT) وسقوطه، وهو نموذج لغة ذكاء اصطناعي مبني على نموذج مفتوح المصدر، ومدرب على البيانات المتعلقة بالبرامج الضارة، تم إنشاؤه لمساعدة المتسللين، ولم تكن لديه قواعد أو قيود أخلاقية. لكن في الصيف الماضي، أعلن مبتكروه أنهم سيغلقون النموذج بعد أن بدأ يجذب اهتمام وسائل الإعلام.

طرق احتيال ذكية

منذ ذلك الحين توقف مجرمو الإنترنت في الغالب عن تطوير نماذج الذكاء الاصطناعي الخاصة بهم. وبدلاً من ذلك، فإنهم يختارون الحيل باستخدام الأدوات الموجودة التي تعمل بشكل موثوق.

وفيما يلي خمس طرق يستخدمها المجرمون للذكاء الاصطناعي الآن:

- التصيد الاحتيالي. وهو أكبر حالة استخدام للذكاء الاصطناعي التوليدي بين المجرمين في الوقت الحالي. ويتضمن محاولة خداع الأشخاص للكشف عن معلومات حساسة يمكن استخدامها لأغراض ضارة.

وقد وجد الباحثون أن ظهور «تشات جي بي تي» (ChatGPT) كان مصحوباً بارتفاع كبير في عدد رسائل البريد الإلكتروني التصيدية. ونقل موقع «تكنولوجي ريفيو» عن سيانكاجليني أن المجرمين قاموا بدمج الخدمات التي تنتج البريد العشوائي، مثل (GoMail Pro)، مع «تشات جي بي تي»، ما يسمح لهم بترجمة أو تحسين الرسائل المرسلة إلى الضحايا.

ورغم أن سياسات «أوبن إيه آي» تقيد استخدام الأشخاص لمنتجاتها، مثل «تشات جي بي تي» في أنشطة غير قانونية، لكن من الصعب مراقبة ذلك في الممارسة العملية، لأن كثيراً من المطالبات التي تبدو بريئة يمكن استخدامها لأغراض ضارة أيضاً.

وقال متحدث باسم الشركة: «نحن نعمل باستمرار على جعل نماذجنا أكثر أماناً وأكثر قوةً ضد إساءة الاستخدام وعمليات كسر الحماية، مع الحفاظ أيضاً على فائدة النماذج وأداء المهام».

ويقول سيانكاجليني: «كان المتحدثون باللغة الإنجليزية آمنين نسبياً من المجرمين غير الناطقين باللغة الإنجليزية؛ لأنه يمكنك اكتشاف رسائلهم». وهذا ليس هو الحال بعد الآن، فبفضل الترجمة الأحسن التي يعتمدها الذكاء الاصطناعي، يمكن للمجموعات الإجرامية المختلفة حول العالم أيضاً التواصل بشكل أفضل مع بعضها بعضاً. ويكمن الخطر في أنهم يستطيعون تنسيق عمليات واسعة النطاق تمتد إلى ما هو أبعد من بلدانهم، وتستهدف الضحايا في بلدان أخرى.

الاحتيال والتزييف الصوتي

- عمليات الاحتيال والتزييف الصوتي العميق. سمح الذكاء الاصطناعي التوليدي بتطوير التزييف العميق بتحقيق قفزة كبيرة إلى الأمام، حيث أصبحت الصور ومقاطع الفيديو والصوت الاصطناعية تبدو أكثر واقعية من أي وقت مضى.

وهذا لم يمر دون أن يلاحظه أحد من قبل عالم الجريمة الإجرامي. وفي وقت سابق من هذا العام، وردت أنباء بأن موظفاً في هونغ كونغ تعرض للاحتيال، وسُلب منه مبلغ 25 مليون دولار بعد أن استخدم مجرمو الإنترنت تقنية التزييف العميق للمدير المالي للشركة؛ لإقناع الموظف بتحويل الأموال إلى حساب المحتال.

يقول سيانكاجليني إن فريقه وجد أشخاصاً على منصات مثل «تلغرام» يعرضون «محفظة» من التزييف العميق، ويبيعون خدماتهم مقابل مبلغ زهيد يصل إلى 10 دولارات لكل صورة أو 500 دولار لكل دقيقة فيديو. وأحد أكثر الأشخاص شعبية بين المجرمين الذين يقومون بالتزييف العميق هو إيلون ماسك.

إن نماذج اللغات الكبيرة مليئة بالثغرات الأمنية. وبينما تظل مقاطع الفيديو المزيفة بعمق معقدة في صنعها ويسهل على البشر اكتشافها، فإن هذا ليس هو الحال بالنسبة للمقاطع الصوتية العميقة. فهي رخيصة الصنع، وتتطلب فقط بضع ثوان من صوت لشخص يستخلص من مواقع التواصل الاجتماعي.

في الولايات المتحدة، كانت هناك حالات رفيعة المستوى، حيث تلقى الأشخاص مكالمات مؤلمة من أحبائهم يقولون: إنهم تعرضوا للاختطاف، ويطلبون إطلاق سراحهم، ليتبين أن المتصل محتال يستخدم تسجيلاً صوتياً مزيفاً.

انتحال الهوية الشخصية

- اختراق عمليات التحقق من الهوية. هناك طريقة أخرى يستخدمها المجرمون للتزييف العميق، وهي اختراق وتجاوز أنظمة التحقق من الهوية الشخصية. تستخدم البنوك وبورصات العملات المشفرة أنظمة للتحقق من أن عملاءها هم أشخاص حقيقيون. إنها تتطلب من المستخدمين الجدد التقاط صورة لأنفسهم وهم يحملون وثيقة هوية فعلية أمام الكاميرا. لكنّ المجرمين بدأوا في بيع التطبيقات على منصات التواصل الاجتماعي التي تسمح للأشخاص بالتغلب على هذا المطلب.

ويتسلل المجرمون خلال تقديم بطاقة هوية مزيفة أو مسروقة وفرض صورة مزيفة فوق وجه شخص حقيقي لخداع نظام التحقق على كاميرا الجوال. ورصدت حالات بيع هذه الخدمات لمواقع للعملات المشفرة مقابل مبلغ زهيد يصل إلى 70 دولاراً.

كسر قواعد الذكاء الاصطناعي

- خرق القواعد وأصول عمل الذكاء الاصطناعي. إذا سألت معظم أنظمة الذكاء الاصطناعي عن كيفية صنع قنبلة، فلن تحصل على إجابة مفيدة، وذلك لأن شركات الذكاء الاصطناعي وضعت ضمانات مختلفة لمنع نماذجها من نشر معلومات ضارة أو خطيرة.

بدلاً من بناء نماذج الذكاء الاصطناعي الخاصة بهم دون هذه الضمانات، وهو أمر مكلف ويستغرق وقتاً طويلاً وصعباً، بدأ مجرمو الإنترنت في تبني اتجاه جديد: كسر الحماية.

وتأتي معظم النماذج مع قواعد حول كيفية استخدامها. ويسمح كسر الحماية للمستخدمين بالتلاعب بنظام الذكاء الاصطناعي لإنشاء مخرجات تنتهك هذه السياسات، على سبيل المثال، بهدف كتابة تعليمات برمجية لبرامج الفدية، أو إنشاء نص يمكن استخدامه في رسائل البريد الإلكتروني الاحتيالية.

ولمقاومة هذه التوجهات التخريبية المتنامية، يتعين على شركات الذكاء الاصطناعي مثل «أوبن إيه آي»، و«غوغل» في كثير من الأحيان سد الثغرات الأمنية التي قد تسمح بإساءة استخدام نماذجها.

رصد الأشخاص ونشر بياناتهم

- رصد ونشر البيانات الشخصية. يقول الخبراء إن نماذج لغة الذكاء الاصطناعي هي أداة مثالية ليس فقط للتصيد الاحتيالي، بل أيضاً لجمع المعلومات الشخصية (الكشف عن معلومات خاصة وتحديد هوية شخص ما عبر الإنترنت). وذلك لأن نماذج لغة الذكاء الاصطناعي يتم تدريبها على كميات هائلة من بيانات الإنترنت، بما في ذلك البيانات الشخصية، ويمكنها استنتاج المكان الذي يمكن أن يوجد فيه شخص ما، على سبيل المثال. ويوجد مثال على كيفية عمل ذلك، وهو أنه يمكنك أن تطلب من برنامج الدردشة الآلي التظاهر بأنه محقق خاص يتمتع بخبرة في جمع البيانات. ثم يمكنك أن تطلب منه تحليل النص الذي كتبه الضحية، واستنتاج المعلومات الشخصية من أدلة صغيرة في هذا النص - على سبيل المثال، عمره بناءً على الوقت الذي ذهب فيه إلى المدرسة الثانوية، أو المكان الذي يعيش فيه بناءً على المعالم التي يذكرها أثناء تنقلاته. ويمكنك نشر تلك المعلومات على الإنترنت.

وكلما توافرت معلومات أكثر عنهم على الإنترنت، أصبحوا أكثر عُرضةً للتعرف عليهم. وقد اكتشف فريق من الباحثين أواخر العام الماضي أن نماذج اللغات الكبيرة، مثل «جي بي تي - 4»، و«كلود» قادرة على استنتاج معلومات حساسة، مثل عرق الأشخاص، وموقعهم، ومهنتهم من المحادثات العادية مع الأشخاص.

وعلى الرغم من أن وجود هذه الخدمات لا يشير إلى نشاط إجرامي، فإنه يشير إلى القدرات الجديدة التي يمكن للجهات الخبيثة أن تحصل عليها. وإذا تمكن الأشخاص العاديون من بناء أدوات مراقبة مثل هذه، فمن المحتمل أن يكون لدى الجهات الحكومية أنظمة أفضل بكثير.



«بيربليكسيتي» تطرح رؤية أوسع لدور الذكاء الاصطناعي في الحواسيب الشخصية

يعكس هذا التوجه سباقاً أوسع بين شركات التقنية للسيطرة على واجهة الاستخدام في عصر الذكاء الاصطناعي «بيربليكسيتي»
يعكس هذا التوجه سباقاً أوسع بين شركات التقنية للسيطرة على واجهة الاستخدام في عصر الذكاء الاصطناعي «بيربليكسيتي»
TT

«بيربليكسيتي» تطرح رؤية أوسع لدور الذكاء الاصطناعي في الحواسيب الشخصية

يعكس هذا التوجه سباقاً أوسع بين شركات التقنية للسيطرة على واجهة الاستخدام في عصر الذكاء الاصطناعي «بيربليكسيتي»
يعكس هذا التوجه سباقاً أوسع بين شركات التقنية للسيطرة على واجهة الاستخدام في عصر الذكاء الاصطناعي «بيربليكسيتي»

توسّع «بيربليكسيتي» طموحاتها إلى ما هو أبعد من البحث المدعوم بالذكاء الاصطناعي؛ إذ ترى أن المرحلة المقبلة من الحوسبة الشخصية ستقوم على مساعد أكثر وعياً بسياق المستخدم، وقادر على الاقتراب من نشاطه الرقمي اليومي.

وفي منشور جديد عبر موقعها الإلكتروني بعنوان «The Personal Computer Is Here»، تعرض الشركة هذه الرؤية باعتبارها جزءاً من توجه أوسع لجعل الذكاء الاصطناعي طبقة أكثر حضوراً في التصفح والبحث وتنفيذ المهام، بدلاً من بقائه أداة تُستخدم للإجابة عن الأسئلة المنفصلة فقط. ويتقاطع هذا الطرح مع الاهتمام المتزايد باستراتيجية «بيربليكسيتي» في مجال المتصفح، ومع مساعيها للانتقال من منتج بحث إلى واجهة أوسع للذكاء الاصطناعي الشخصي.

ولا تتمثل أهمية التطور هنا في أن الشركة نشرت بياناً جديداً عن منتجها فحسب، بل في أنها باتت تعرض تقنيتها بوصفها جزءاً من تحول أكبر في طريقة تفاعل المستخدمين مع الحواسيب. فبدلاً من تقديم الذكاء الاصطناعي كإضافة إلى سير العمل القائم، تضعه «بيربليكسيتي» في موقع الطبقة التي يمكن أن يمر عبرها هذا السير نفسه. وهذا يضع الشركة في منافسة أكثر مباشرة ليس فقط مع منافسي البحث بالذكاء الاصطناعي، بل أيضاً مع مطوري المتصفحات والشركات التي تحاول رسم واجهة الاستخدام المقبلة في عصر الذكاء الاصطناعي.

التحول الجديد يشير إلى أن «بيربليكسيتي» تريد أن تؤثر في طريقة استخدام الحاسوب لا في البحث فقط «بيربليكسيتي»

«توسيع دور بيربليكسيتي»

يكتسب هذا التحول أهمية خاصة؛ لأن «بيربليكسيتي» بنت حضورها الأول بوصفها منصة تعتمد على الإجابات المدعومة بالذكاء الاصطناعي والبحث على الويب. أما الآن، فتشير اللغة الجديدة التي تستخدمها الشركة إلى أنها تريد أن تُعرَف بدرجة أقل كوجهة لطرح الأسئلة، وبدرجة أكبر كنظام يفهم سياق المستخدم ويساعده في إدارة أنشطته الرقمية الأوسع. وعملياً، يعني ذلك الاقتراب أكثر من طريقة تصفح الأفراد، ومقارنتهم للمعلومات، واتخاذهم القرارات، وتنفيذهم المهام. وهو ادعاء أكبر بكثير من مجرد تقديم نتائج بحث أفضل.

كما يساعد السياق الصناعي الأوسع في تفسير هذا التوجه؛ فشركات الذكاء الاصطناعي تحاول بشكل متزايد تجاوز واجهات الدردشة المستقلة إلى بيئات برمجية تلتقط قدراً أكبر من النشاط اليومي للمستخدم. وأصبحت المتصفحات ساحة مهمة لهذا التنافس؛ لأنها تحتل بالفعل موقعاً مركزياً في كيفية عمل كثير من الناس على الإنترنت. ومن خلال ربط رسالتها بالحوسبة الشخصية لا بالبحث فقط، تبدو «بيربليكسيتي»، وكأنها تقول إن المتصفح والمساعد الذكي يبدآن في الاندماج.

الانتقال إلى طبقة أكثر التصاقاً بالمستخدم يفرض تحديات تتعلق بالسياق والخصوصية والموثوقية «بيربليكسيتي»

الخصوصية والموثوقية أولاً

لا يعني هذا الانتقال أن الطريق سهل؛ فوجود طبقة ذكاء اصطناعي أكثر التصاقاً بالمستخدم يتطلب الوصول إلى السياق، والاستمرارية عبر المهام، وقدراً كافياً من الثقة حتى يسمح الأفراد للبرمجيات بالاقتراب أكثر من عادات عملهم. وهذه متطلبات أكثر تعقيداً بكثير من مجرد الإجابة عن سؤال أو تلخيص صفحة. كما أنها ترفع سقف التحديات المرتبطة بتصميم المنتج، وتوقعات الخصوصية، والموثوقية. وتوحي الرسائل الأخيرة للشركة بأنها ترى أن هذا التحدي يستحق المخاطرة؛ لأن الميزة التنافسية المقبلة في الذكاء الاصطناعي قد لا تأتي فقط من جودة الإجابة، بل من التغلغل في سير العمل اليومي للمستخدم.

«بيربليكسيتي» توسع موقعها

ما يبرز أكثر من غيره هو اللغة التي باتت «بيربليكسيتي» تستخدمها في تعريف نفسها؛ فالشركة تبدو وكأنها تحاول تثبيت موطئ قدم في فئة تتجاوز البحث، بل حتى تتجاوز الدردشة. إنها تصف مستقبلاً لا يُستشار فيه الذكاء الاصطناعي من حين إلى آخر فحسب، بل يصبح طبقة تشغيل يومية في الحوسبة الشخصية. وهذا إطار استراتيجي أوسع بكثير من ذاك الذي عُرفت به حين ظهرت بدايةً بوصفها شركة ناشئة في البحث المدعوم بالذكاء الاصطناعي.

وبالنسبة إلى «بيربليكسيتي»، فإن دلالة هذا التحول واضحة؛ فالشركة لا تسعى فقط إلى تحسين الطريقة التي يعثر بها المستخدمون على المعلومات، بل تريد أيضاً أن تؤثر في الطريقة التي يتحركون بها داخل العمل الرقمي كله. وما إذا كانت قادرة على تنفيذ هذا الوعد يبقى سؤالاً مفتوحاً، لكن الاتجاه بات واضحاً: «بيربليكسيتي» تريد أن يكون لها دور ليس فقط فيما يسأله الناس للذكاء الاصطناعي، بل أيضاً في كيفية استخدامهم الحاسوب من الأساس.


دراسة سويسرية: الروبوتات قد تتعلم المهارة نفسها دون إعادة برمجة كاملة

الدراسة تقدم إطاراً جديداً يتيح للروبوتات نقل المهارات بين منصات مختلفة رغم اختلاف بنيتها الميكانيكية (EPFL)
الدراسة تقدم إطاراً جديداً يتيح للروبوتات نقل المهارات بين منصات مختلفة رغم اختلاف بنيتها الميكانيكية (EPFL)
TT

دراسة سويسرية: الروبوتات قد تتعلم المهارة نفسها دون إعادة برمجة كاملة

الدراسة تقدم إطاراً جديداً يتيح للروبوتات نقل المهارات بين منصات مختلفة رغم اختلاف بنيتها الميكانيكية (EPFL)
الدراسة تقدم إطاراً جديداً يتيح للروبوتات نقل المهارات بين منصات مختلفة رغم اختلاف بنيتها الميكانيكية (EPFL)

طوّر باحثون من مختبر «كرييت» (CREATE) في المعهد الفيدرالي السويسري للتكنولوجيا في لوزان (EPFL) في سويسرا إطاراً جديداً يهدف إلى معالجة واحدة من أكثر المشكلات إرباكاً في الروبوتات الصناعية تتعلق بكيفية تعليم مهارة واحدة لروبوتات مختلفة البنية من دون إعادة البرمجة من الصفر في كل مرة.

الدراسة المنشورة في دورية «Science Robotics» تقدم ما يسميه الباحثون «الذكاء الحركي»، وهو نهج يحوّل المهمة التي يعرضها الإنسان إلى استراتيجية حركة عامة، ثم يكيّفها تلقائياً مع التصميم الميكانيكي لكل روبوت على حدة.

تكمن المشكلة في أن الروبوتات، حتى عندما تُستخدم في أعمال متشابهة، لا تتحرك بالطريقة نفسها. اختلاف ترتيب المفاصل وحدود الحركة ومتطلبات الاتزان يجعل المهارة التي يتعلمها روبوت ما غير قابلة للنقل مباشرة إلى روبوت آخر. ولهذا؛ فإن تحديث أسطول الروبوتات في المصانع غالباً لا يعني استبدال العتاد فقط، بل يشمل أيضاً إعادة تعريف المهام، وضبط حدود الأمان، وإعادة التحقق من السلوك الحركي لكل منصة جديدة. الدراسة الجديدة تحاول فصل «فكرة المهارة» عن خصائص الروبوت الفردي، بحيث يصبح بالإمكان نقلها بين منصات مختلفة بتكلفة أقل وزمن أقصر.

الباحثون حوّلوا المهام التي يعرضها الإنسان استراتيجيات حركة عامة يمكن تكييفها مع كل روبوت على حدة (EPFL)

نقل المهارة بأمان

ولبناء هذا الإطار؛ بدأ الباحثون من مهام تلاعب بالأجسام عرضها إنسان، مثل الوضع والدفع والرمي. استخدم الفريق تقنيات التقاط الحركة لتسجيل هذه المهام، ثم حوّلها رياضياً استراتيجيات حركة عامة لا ترتبط بروبوت واحد بعينه. بعد ذلك، وضعوا تصنيفاً منظماً للقيود الفيزيائية الخاصة بكل تصميم روبوتي، مثل مدى حركة المفاصل والمواضع التي يجب تجنبها للحفاظ على الاستقرار. وبهذا، لم يعد الروبوت ينسخ حركة بشرية أو حركة روبوت آخر كما هي، بل «يفسر» المهارة ضمن حدوده الميكانيكية الخاصة.

في التجربة الأساسية، عرض إنسان مهمة مركبة على خط تجميع كدفع كتلة خشبية من سير ناقل إلى منصة عمل، ثم وضعها على طاولة، ثم رميها في سلة. ووفق التقرير، تمكنت ثلاثة روبوتات تجارية مختلفة تماماً من إعادة تنفيذ التسلسل نفسه بأمان وموثوقية باستخدام إطار الذكاء الحركي. والأهم أن النظام ظل يعمل حتى عند تغيير توزيع الخطوات بين الروبوتات؛ ما يشير إلى أن الإطار لا يحفظ مساراً واحداً فحسب، بل ينقل منطق المهمة نفسه إلى أجسام مختلفة.

أهمية النظام لا تقتصر على إنجاز المهمة بل تشمل الحفاظ على السلوك الآمن والمتوقع داخل حدود كل روبوت (أ.ف.ب)

أتمتة أسرع وأبسط

يقول الباحثون إن القيمة الرئيسية هنا لا تتعلق فقط بإتمام المهمة، بل بضمان أن كل روبوت ينفذها ضمن حدوده الآمنة. رئيسة المختبر أود بيلار وصفت ذلك بأنه معالجة لتحدٍ قديم في الروبوتات متعلق بنقل المهارة المتعلمة بين روبوتات ذات هياكل ميكانيكية مختلفة مع الحفاظ على سلوك آمن ومتوقع. أما أحد الباحثين المشاركين، فأوضح أن كل روبوت «يفسر المهارة نفسها بطريقته، ولكن دائماً ضمن حدود آمنة وقابلة للتنفيذ». هذه النقطة أساسية لأن كثيراً من أنظمة التعلم الروبوتي تُظهر أداءً جيداً في المختبر، لكنها تصبح أقل موثوقية عندما تنتقل إلى منصات أخرى أو إلى بيئات تشغيلية فعلية.

أهمية هذا النهج تظهر بوضوح في التصنيع، حيث يمكن أن يؤدي تبديل الروبوتات أو تحديثها إلى تعطيل طويل ومكلف. فإذا أمكن نقل المهارات بين الروبوتات المختلفة من خلال تمثيل عام للمهمة بدلاً من إعادة البرمجة التفصيلية، فقد يصبح نشر الروبوتات الجديدة أسرع وأكثر استدامة. التقرير يشير أيضاً إلى أن هذا يمكن أن يقلل حجم الخبرة الفنية المطلوبة لتشغيل الأنظمة في البيئات الواقعية، وهي نقطة قد تكون مهمة للشركات التي تريد توسيع الأتمتة من دون الاعتماد الكامل على فرق برمجة متخصصة لكل منصة.

لا يقف طموح الباحثين عند خطوط الإنتاج. فهم يرون أن الإطار قد يمتد إلى التعاون بين الإنسان والروبوت، أو إلى التفاعل المعتمد على اللغة الطبيعية، حيث يمكن للمستخدم أن يوجه الروبوت بأوامر بسيطة من دون الخوض في برمجة تقنية معقدة. كما يبدو النهج مناسباً للمنصات الروبوتية الناشئة، حيث تتطور العتاد بسرعة وقد تُستبدل النماذج الحالية بأخرى أحدث خلال فترة قصيرة. في هذه البيئات، لا تكون المشكلة في تعليم الروبوت مهمة واحدة فحسب، بل في الحفاظ على تلك المهارة قابلة للنقل مع كل جيل جديد من الآلات.


فيديو: روبوت يرتدي «رولكس» يطارد الخنازير البرية... ويخطف أضواء وارسو

روبوت بشري يرقص خلال عرض في بوغوتا (أ.ف.ب)
روبوت بشري يرقص خلال عرض في بوغوتا (أ.ف.ب)
TT

فيديو: روبوت يرتدي «رولكس» يطارد الخنازير البرية... ويخطف أضواء وارسو

روبوت بشري يرقص خلال عرض في بوغوتا (أ.ف.ب)
روبوت بشري يرقص خلال عرض في بوغوتا (أ.ف.ب)

في مشهدٍ بدا أقرب إلى لقطاتٍ من فيلمٍ خيالي، تحوّل روبوتٌ بشري إلى حديث الشارع في وارسو، بعدما ظهر في مقطعٍ مصوّر وهو يطارد خنازير برية بين أحيائها، في ظاهرةٍ جمعت بين الدهشة والطرافة، وأثارت نقاشاً واسعاً حول مستقبل العلاقة بين الإنسان والآلة.

الروبوت، الذي يحمل اسم «إدوارد وارتشوكي» ويُعرف اختصاراً بـ«إيدِك»، ليس مجرد تجربة تقنية عابرة، بل مشروعٌ طموحٌ وُلد من تعاونٍ بين تقنياتٍ صينية وبرمجياتٍ طُوّرت محلياً. وقد اشتراه رائدا أعمالٍ بولنديان مقابل نحو 25 ألف دولار، قبل أن يعملا على تطوير نظامه ليصبح وفق توصيفهما أول «مؤثر روبوتي» في بولندا. وفقاً لصحيفة «فاينانشال تايمز».

وخلال أسابيع قليلة، خرج «إيدِك» من إطار التجربة المحدودة إلى فضاء الشهرة الواسعة، إذ حقّقت مقاطعه على وسائل التواصل أكثر من 1.5 مليار مشاهدة خلال 45 يوماً، ما جعله ظاهرةً رقميةً لافتةً، تتجاوز حدود الترفيه إلى التأثير الاجتماعي.

لا يقتصر حضور الروبوت على الشاشات؛ فقد بات جزءاً من الحياة اليومية في المدينة، يتنقّل بين الحافلات والمتاجر، ويشارك في فعالياتٍ عامة، بل ويتحوّل أحياناً إلى أداةٍ تسويقية تستعين بها شركاتٌ محلية في حملاتها. ويضيف إلى صورته اللافتة ارتداؤه ساعة «رولكس» مرصّعة بالألماس، في إطار اتفاقية رعاية، ما يعكس تداخلاً غير مألوف بين التكنولوجيا وعالم العلامات الفاخرة.

وبحسب مطوّريه، فإن «إيدِك» يتميّز بقدرةٍ متقدمة على التفاعل الإنساني، إذ جرى تزويده بنموذجٍ لغويٍّ متطور يمكّنه من التحدّث والاستماع بشكلٍ مستقل، فضلاً عن نظام تحديد مواقع (GPS) وقاعدة بيانات تُنشئ ما يشبه «ذاكرةً» رقمية، تمنحه إدراكاً للزمان والمكان.

ويقول أحد القائمين على المشروع إن سلوك الروبوت لم يعد قابلاً للتوقّع دائماً، مضيفاً: «لا نعرف بدقةٍ ما الذي سيقوله، وهذا ما يفاجئنا. كما أنه يتفاعل مع مشاعر من يحدّثهم؛ فإذا واجه شخصاً غاضباً أو محبطاً، يتأثر بذلك ويستجيب بطريقةٍ أقرب إلى التعاطف».

الحضور اللافت للروبوت امتدّ أيضاً إلى المجال العام، حيث التقى بمسؤولين حكوميين، وعقد مؤتمراً صحافياً داخل البرلمان، بل وشارك في نقاشاتٍ مع نواب حول قضايا اجتماعية، في مشهدٍ يعكس تحوّلاً غير مسبوقٍ في دور التكنولوجيا داخل الحياة السياسية.

وفي إحدى المباريات الجماهيرية التي حضرها نحو 20 ألف مشجّع، سرق «إيدِك» الأضواء عند ظهوره على الشاشة الكبيرة، إذ توقّف كثيرون عن متابعة اللقاء، وارتفعت هتافات الأطفال باسمه، في لحظةٍ بدت أقرب إلى احتفاءٍ بنجمٍ رياضي.

ورغم الطابع الترفيهي الذي يحيط بالمشروع، يؤكد مطوّروه أن الهدف يتجاوز ذلك، ليشمل تعريف المجتمع بعالم الروبوتات، والدفع نحو تشريعاتٍ تستقطب الاستثمارات في هذا القطاع سريع النمو، خصوصاً في ظل المنافسة العالمية المتصاعدة، حيث تتقدّم الشركات الصينية، إلى جانب شركاتٍ أميركية مثل «تسلا».

في المحصلة، لا يبدو «إيدِك» مجرد روبوتٍ يرتدي ساعةً فاخرة أو يطارد خنازير برية، بل تجربة إنسانية مفتوحة على أسئلة المستقبل: كيف سيتعايش البشر مع هذه الكيانات الذكية؟ وهل تصبح جزءاً مألوفاً من تفاصيل الحياة اليومية خلال سنواتٍ قليلة؟ الإجابة، كما يبدو، بدأت تتشكّل... خطوةً بعد أخرى.