كيف تمنعون أجهزة المساعدة الذكية من التنصّت عليكم؟

خطوات أساسية لحماية الخصوصية

كيف تمنعون أجهزة المساعدة الذكية من التنصّت عليكم؟
TT

كيف تمنعون أجهزة المساعدة الذكية من التنصّت عليكم؟

كيف تمنعون أجهزة المساعدة الذكية من التنصّت عليكم؟

كثيرون منّا يطلبون من أجهزة المساعدة الصوتية الرقمية في منازلهم، سواء كان «أليكسا» من «أمازون» أو «سيري» من «أبل» أو «مساعد غوغل»، القيام بمهام بسيطة، كضبط المؤقّت وتشغيل الموسيقى.
ولكن ما قد يغفل عنه معظمنا هو احتمال وجود أشخاص يتنصّتون علينا في بعض الأحيان.

تسجيل وتنصّت

في تقريرين منفصلين صدرا أخيراً في صحيفة الـ«غارديان» وموقع «بلومبرغ»، تحدّث الناشطون من كاشفي الفساد، عن استماعهم لتسجيلات لتفعيل «سيري» و«أليكسا» رصدت من دون قصد، لحظات حميمة بين زوجين، وكذلك سجلت اتفاقاً بين بعض موزّعي المخدرات. وفي منشور آخر، تحدّثت هيئة الإذاعة والتلفزيون الفلمنكية عن كيفية مشاركة أحد متعاقدي «غوغل» أكثر من ألف مقتطف من تسجيلات الشركة مع أشخاص آخرين، استخدمها صحافيون لاحقاً لتحديد هوية بعض الأفراد.
في صناعة التقنية، بات الجميع يعلم أنّ الذكاء الصناعي لم يصل إلى مستوى الذكاء التام بعد، إذ لا يزال تدريب أنظمة الحوسبة يتطلّب جهود كثير من البشر الذين يغربلون البيانات يدوياً.
وهذا يعني أنّ البشر هم من يختارون التسجيلات الصوتية لتدريب «أليكسا» و«سيري» و«غوغل» لفهم الفروقات الطفيفة في الكلام، والتمييز بين الكلمات المنطوقة، مثل كلمات «أوستن» و«بوسطن» أو «يو تو» و«يوتيوب».
ولكنّ شركات التقنية لا تبدي شفافية مطلقاً عند الكشف عن ممارساتها تجاه مستخدميها، حتى إنّها قد تتخطّى الحدود فيما يتعلّق بأنواع التسجيلات التي تجمعها.
منذ صدور التقريرين، اكتفت شركات «غوغل» و«أبل» و«أمازون» بالقول إنّ أقلّ من واحد في المائة من التسجيلات مفتوحة للمراجعة البشرية. كما صرّحت كلّ من «أبل» و«غوغل» بأنّهما أوقفتا العمل ببرامج المراجعة البشرية، بينما أكّدت «أمازون» أنّها وسّعت برنامج المساعد الصوتي «أليكسا» ليضمّ مجموعة من أدوات ضبط الخصوصية.
هذا الأمر دفعني إلى التساؤل: ماذا يمكننا أن نفعل مع أجهزة المساعدة الرقمية لحماية خصوصيتنا ودون أن نضطر إلى التخلّص منها نهائياً؟
الخبر الجيّد هنا أنّ هناك بعض الخطوات التي يمكننا القيام بها؛ إذ تتيح كلّ من «أمازون» و«غوغل» لمستخدميهما إمكانية تعطيل المراقبة البشرية في مساعداتها الشخصية. وكانت «أبل» قد صرّحت بأنّها تخطّط لإطلاق تحديث برمجي يتيح للنّاس الاشتراك في برنامجها الذي يعتمد على تصنيف بشري لنماذج «سيري» للتحقّق من النوعية بدل أن تستعين بموظفين يلعبون دوراً غيابياً في البرنامج.
وهناك أيضاً أمور أخرى يمكننا القيام بها، كحذف التسجيلات، وتعطيل أجهزة الاستشعار، لتقليص حجم المعلومات التي تتمّ مشاركتها مع الشركات.

حماية الخصوصية

فيما يلي، ستجدون دليلاً شاملاً لمّا يمكنكم القيام به لحماية خصوصيتكم مع كلّ واحد من المساعدات الذكية:
> كيف تقلّلون البيانات التي تشاركها «أليكسا» مع «أمازون»؟
من بين جميع أجهزة المساعدة الرقمية، تملك «أليكسا» أدوات ضبط الخصوصية الأكثر شمولية ووضوحاً. وقد أطلقت «أمازون» أخيراً «مركز خصوصية أليكسا» الذي يقدّم لكم شرحاً مفصلاً لأنواع البيانات التي يجمعها المساعد الرقمي وكيف يمكنكم تغيير إعدادات الخصوصية فيه.
إليكم كيف يمكنكم الحدّ من التدخّل البشري:
- افتحوا تطبيق «أليكسا» على هاتفكم الذكي وانقروا على «إعدادات»، ومن ثمّ اختاروا «خصوصية أليكسا».
- انقروا على «إدارة كيف تحسّن بياناتكم أداء (أليكسا)».
- انقروا على زرّ تعطيل أدوات التحكّم المسمّاة «ساعد (أمازون) على تحسين الخدمات» و«طوّر ميزات جديدة».
كيف تحذفون التسجيلات الصوتية:
- في لائحة «خيارات الخصوصية» نفسها في «أليكسا»، اختاروا «مراجعة التاريخ الصوتي».
- في «نطاق البيانات»، اختاروا الإطار الزمني للتسجيلات التي تريدون حذفها مثل «جميع التواريخ» مثلاً.
- انقروا على «حذف جميع التسجيلات لجميع التواريخ».
تدابير وقائية أخرى للكاميرات والميكروفونات:
- يضمّ جهاز «أليكسا» زرّاً لتعطيل الميكروفونات. انقروا على زرّ الإطفاء في أي وقت تجرون فيه محادثة حسّاسة. عندها، سترون في الجهاز ضوءاً أحمر يعلمكم بأنّه تمّ تعطيل الميكروفون.
- تأتي بعض أجهزة «أليكسا» كمنبّه «إيكو سبوت» مجهّزة بكاميرات مدمجة. إنّ الطريقة الأسهل لتعطيل هذه الكاميرات هي قول: «أليكسا: أطفئي الكاميرا». ولكن في حال كنتم ما زلتم غير مرتاحين لوجودها، فيمكنكم شراء غطاء للكاميرات الإلكترونية ووضعه فوق العدسة.
في تصريح لها، قالت شركة «أمازون» إنّها تأخذ خصوصية زبائنها على محمل الجدّ، لافتة إلى أنّ «موظفيها يراجعون باستمرار ممارسات الشركة وإجراءاتها لضمان تأمين أفضل التجارب وخيارات الخصوصية للزبائن».

مساعد «أبل»

كيف تحذفون تسجيلات مساعد «سيري» من «أبل»؟
يعد مساعد سيري الأضعف لجهة أدوات التحكّم في الخصوصية بين المساعدين الرقميين، فضلاً عن أنّ عملية التحكّم في بيانات مستخدميه هي الأقلّ وضوحاً وشفافية.
مثلاً، لا تقدّم «أبل» خياراً يتيح للناس الوصول إلى برنامج التصنيف فيها، رغم تصريحها بأنّها تخطط للقيام بذلك في تحديثاتها البرمجية المقبلة. علاوة على ذلك، لا تتيح لكم «أبل» مراجعة تسجيلات «سيري» المرتبطة بحسابكم، كما أنّ عملية حذف التسجيلات فيه شاقّة جدّاً.
ولكنّ مساعد «سيري» يعتمد بعض التدابير لإخفاء هويتكم. فقد كشفت الشركة أنّكم عندما تطلبون شيئاً من مساعدها عبر الـ«آيفون» مثلاً، فإن الجهاز يربط هذه الطلبات بمعرّف عشوائي بدل أن يربطها بهويتكم الموجودة في حساب «أبل». ولتعيين معرّف عشوائي جديد، يمكنكم إطفاء «سيري» وإعادة تشغيله من جديد.
يذكر أنّ تعطيل «سيري» سيؤدي إلى حذف بياناتكم المرتبطة به مع ما يشمله من تسجيلات.
إليكم فيما يلي كيفية تعطيل «سيري» على الـ«آيفون» لحذف البيانات وتعيين معرّف جديد:
- افتحوا تطبيق «إعدادات»، ثمّ انقروا على «عام»، وبعدها على «لوحات المفاتيح».
في أداة «تشغيل الإملاء»، انقروا على الزرّ لتحويله إلى وضع التعطيل.
- عودوا إلى تطبيق «إعدادات». اختاروا «سيري وبحث»، وبعدها، انقروا على أزرار «أنصت لمرحباً (سيري)» و«انقر على الزرّ الجانبي في (سيري)».
بعدها، سترون رسالة تسألكم عما إذا كنتم تريدون تعطيل المساعد، وتعلمكم بأنّ هذه الخطوة ستؤدي إلى حذف كلّ بياناتكم من خوادم «أبل». انقروا على «إيقاف تشغيل (سيري)» وسيتمّ تلقائياً حذف تاريخكم الموجود في المساعد الذكي.
- لتشغيل «سيري» من جديد، عودوا لكلّ واحد من هذه الإعدادات وأعيدوا تشغيله.
في بعض الحالات، تبيّن أن التسجيلات الحسّاسة المحمّلة على «سيري» تمّ حفظها عن طريق التشغيل غير المتعمّد، مثل عند الضغط على رأس ساعة «أبل» عن طريق الخطأ، ما يستدعي المساعد. (وفق تجربتي الخاصة، هذا الأمر قد يحصل عندما تسندون يديكم على وسادة).

* ساعة «أبل»... لهذا السبب، تعرّفوا فيما يلي على إجراء وقائي خاص بساعة «أبل»:
- لمنع رأس الساعة من تشغيل «سيري»، عطّلوا زرّ المساعد الجانبي في هاتف الـ«آيفون». في تطبيق «إعدادات»، انقروا على «سيري وبحث» ومن ثمّ انقروا لتحويل خيار «اضغط على زرّ (سيري) الجانبي» إلى وضع إيقاف التشغيل. هذه الخطوة ستؤدي إلى تعطيل اختصار المساعد في الساعة.
وكانت شركة «أبل» قد رفضت التعليق على تصريح أعلنت فيه وقف العمل ببرنامج «سيري» للتصنيف.

مساعد «غوغل»

كيف تحمون خصوصيتكم مع مساعد «غوغل هوم»؟
تقدّم لكم مجموعة «غوغل هوم» بعض أدوات التحكّم لتعديل إعدادات الخصوصية في مساعد «غوغل» على هواتف «آندرويد» ومكبّرات «غوغل هوم»... وغيرهما من المنتجات.
أوقفت «غوغل» برنامجها للمراجعة البشرية عن العمل، ولكن هذا لا يعني أنه لا يمكنكم العمل لضمان التخلّص منه شخصياً. تتيح لكم الشركة البحثية أيضاً حذف طلبات مساعد «غوغل» أوتوماتيكياً بعد فترة من طرحها.
فيما يلي، ستتعرفون إلى كيفية تعطيل المراجعات البشرية:
- زوروا أداة «غوغل» الإلكترونية المسمّاة «أدوات التحكّم بالنشاط».
- تصفحوا الخيارات الموجودة في «صوت» و«نشاط صوتي». حوّلوا الأزرار إلى وضع التعطيل.
كيف تضبطون التسجيلات على الحذف التلقائي؟
- من جديد، زوروا أداة «غوغل» الإلكترونية المسمّاة «أدوات التحكّم بالنشاط».
- في قسم «الشبكة ونشاط التطبيقات»، انقروا على «إدارة النشاط».
- انقروا على «اختيار الحذف التلقائي» ومن ثمّ على «الاحتفاظ بالتسجيلات لثلاثة أشهر ومن ثمّ حذفها».
وكان متحدث باسم «غوغل» قد رفض التعليق على الأمر، وطلب مني مراجعة تدوينة فصّلت فيها الشركة تعاملها مع مراجعي اللغة البشرية لتحسين ميزة التعرّف على الصوت.
* خدمة «نيويورك تايمز»



خبير دولي لـ«الشرق الأوسط»: الحروب تنتقل تدريجياً من ساحات القتال إلى مراكز البيانات

نحاس أكد أن الحروب بدأت تنتقل تدريجياً من ساحات القتال الميدانية إلى مراكز البيانات (شترستوك)
نحاس أكد أن الحروب بدأت تنتقل تدريجياً من ساحات القتال الميدانية إلى مراكز البيانات (شترستوك)
TT

خبير دولي لـ«الشرق الأوسط»: الحروب تنتقل تدريجياً من ساحات القتال إلى مراكز البيانات

نحاس أكد أن الحروب بدأت تنتقل تدريجياً من ساحات القتال الميدانية إلى مراكز البيانات (شترستوك)
نحاس أكد أن الحروب بدأت تنتقل تدريجياً من ساحات القتال الميدانية إلى مراكز البيانات (شترستوك)

أكد خبير في الذكاء الاصطناعي أن البشرية تقف اليوم أمام تحول تاريخي يتجاوز تطوير أسلحة تقليدية؛ إذ نشهد انتقالاً عميقاً للحروب من عصر القوة الميكانيكية العنيفة إلى عصر «الخوارزميات الفتاكة»، مشدّداً على أن الانتصار في الميدان لم يعد يعتمد فقط على شجاعة الجنود أو كثافة النيران، بل بات مرتبطاً بسرعة معالجة البيانات، وقدرة الأنظمة الذكية على تحليل المواقف المعقدة في لحظات حاسمة.

تحول السيادة من «الذراع» إلى «العقل»

وأوضح الدكتور محمود نديم نحاس، الخبير في الذكاء الاصطناعي بأكاديمية المستقبل الدولية في لندن، لـ«الشرق الأوسط»، أن الحروب بدأت تنتقل تدريجياً من ساحات القتال الميدانية إلى مراكز البيانات، ومن ضجيج المدافع إلى هدوء الخوارزميات، لتصبح سباقاً بين الأكواد البرمجية، لافتاً إلى أن مفهوم السيادة شهد تغيراً جذرياً، فبعد أن كانت السيادة لقوة «الذراع» البشرية في العصور القديمة، انتقلت إلى «العين» عبر أجهزة الاستشعار والأقمار الاصطناعية، لتستقر اليوم في «العقل الإلكتروني» الذي يدير المشهد من وراء الشاشات، وأن هذا التحول جعل من الممكن لخوارزمية واحدة أن «تشل جيشاً كاملاً دون إطلاق رصاصة واحدة».

استراتيجيات خالد بن الوليد وكلاوزفيتز في عصر الآلة

وفي ربط فريد بين الفكر العسكري الكلاسيكي والتقنية الحديثة، ذكر نحاس أن عبقرية القائد خالد بن الوليد في المباغتة وإرباك العدو واستخدام «الكَراديس» بمرونة عالية، تظل أهدافاً استراتيجية ثابتة حتى اليوم، واستطرد موضحاً أن الذكاء الاصطناعي يسعى لتفتيت ما يسمى «ضباب الحرب» الذي تحدث عنه المنظّر العسكري، كارل فون كلاوزفيتز، وهو حالة عدم اليقين والارتباك في الميدان، عبر تقديم خرائط واقع معزز وبيانات لحظية دقيقة، على حد تعبيره، ومع ذلك، حذّر الدكتور نحاس من مخاطرة نشوء «ضباب رقمي» جديد، حيث قد يؤدي تعقيد الخوارزميات إلى قرارات آلية لا يستطيع البشر تفسيرها أو تبريرها بسهولة.

المنظومة الذكية في قلب المعركة

نحّاس قال خلال حديثه إن الذكاء الاصطناعي ليس مجرد سلاح مستقل، بل منظومة تقنية متكاملة تتغلغل في كل مفاصل العمل العسكري، وذلك عبر (تحليل البيانات الضخمة) حيث تستطيع الخوارزميات تحليل ملايين الصور من الأقمار الاصطناعية والمسيّرات في ثوانٍ لتحديد الأهداف وتصنيفها، وهو ما كان يتطلب أياماً من الجهد البشري، إلى جانب الأنظمة المستقلة، على غرار الغواصات غير المأهولة التي تعمل لأشهر تحت الماء، والآليات البرية التي تعبر تضاريس وعرة، مما يمنح الجيوش قدرة على الوصول إلى مناطق كانت تُصنف سابقاً بأنها «انتحارية».

كما يشمل «التنبؤ الاستراتيجي»، حسب نحّاس، وذلك من خلال بناء نماذج محاكاة تتوقع الخطوة التالية للعدو بدقة، مما يحول الاستراتيجية العسكرية من حالة «رد الفعل» إلى «الاستباق الذكي».

درع الحماية والدفاع فرط الصوتي

وأشار نحاس إلى أن إحدى أهم فوائد الذكاء الاصطناعي هي دوره بوصفه «درعاً» واقياً للقوات، وفصّل ذلك عبر تقنية «الصيانة التنبؤية» التي تتوقع تعطل المحركات أو قطع الغيار قبل وقوع العطل، مما يحافظ على الجاهزية القتالية، مؤكّداً أن ظهور الصواريخ «فرط الصوتية» التي تفوق سرعة الصوت بخمس مرات جعل العقل البشري عاجزاً عن اعتراضها، مما حتم الاعتماد على أنظمة الدفاع الذكي التي تتخذ قرار الاعتراض في أجزاء من الثانية.

ثورة المسيّرات و«ذكاء الأسراب»

وفيما يخص التفوق الجوي، أبان أن «الطائرات المسيّرة» الرخيصة والانتحارية قلبت الموازين التقليدية، فلم يعد التفوق حكراً على الطائرات المقاتلة باهظة الثمن، وشرح مفهوم «ذكاء الأسراب» المستوحى من النحل والطيور، حيث تهاجم مئات المسيّرات كتلةً واحدةً ذكيةً تعيد تنظيم نفسها تلقائياً إذا دُمّر جزء منها، مما «يُغرق» أنظمة الرادار التقليدية، معتبراً أن هذا التحول حوّل الحرب إلى معركة اقتصادية استنزافية، حيث تستنزف مسيّرة رخيصة صاروخاً دفاعياً باهظ التكلفة.

اللوجيستيات: المدير الجديد للميدان

شدّد نحاس على أن «المحترفين يتحدثون عن اللوجيستيات»، معتبراً الذكاء الاصطناعي المدير الجديد لهذا الميدان الحيوي، وجادل بأن «الخوارزميات تدير الآن سلاسل الإمداد المؤتمتة لضمان تأمين الوقود والذخيرة قبل طلبها وبأقل جهد بشري»، وعرّج على تطوير شاحنات وقوارب تموين تعمل بلا سائق لنقل الإمدادات عبر مناطق الخطر، مما يحمي الجنود الذين كانوا يسقطون ضحايا للكمائن على طرق الإمداد.

الروبوتات والمسؤولية الأخلاقية

وتطرّق إلى الروبوتات العسكرية أو «الجنود الذين لا ينامون»، مبدياً قلقه العميق من «الأسلحة الفتاكة ذاتية التشغيل»، وأطلق تحذيراً من أن هذه الأنظمة التي تختار أهدافها دون وجود «إنسان في الحلقة» تثير رعب المنظمات الحقوقية لأنها تلغي مفهوم المسؤولية الأخلاقية عن القتل، وتساءل: مَن هو مجرم الحرب في حال وقوع خطأ؟ هل هو المبرمج أم القائد أم الشركة المصنعة؟

الحروب السيبرانية والنفسية الهجينة

وصف نحاس «الفضاء السيبراني» بساحة الحرب الخامسة، حيث يقود الذكاء الاصطناعي حرباً ناعمة لكنها مدمرة، وحذّر من مخاطر «التزييف العميق» التي يمكنها صناعة فيديوهات مزيفة لقادة عسكريين تأمر بالاستسلام، مما ينهي حروباً عبر انهيار الروح المعنوية، واعتبر أن «التضليل المؤتمت» عبر آلاف الحسابات الآلية التي تنشر الشائعات لزعزعة الاستقرار الداخلي، والهجمات السيبرانية الآلية التي تكتشف الثغرات وتشل البنية التحتية والمفاعلات النووية بسرعة تفوق قدرة البشر على الصد.

سيكولوجية الحرب وتجريدها من الإنسانية

ولفت الدكتور نحاس إلى بُعد نفسي خطير لمواجهة آلة صماء؛ فالجندي الذي يشعر بأنه مراقب دائماً من مسيّرة صامتة قد يعيش ضغطاً نفسياً دائماً يؤدي لانسحابات وهزائم دون اشتباك فعلي، كما حذّر من «تجريد الحرب من الإنسانية»، حيث قد يبدأ الضباط الذين يديرون الحرب من خلف الشاشات برؤية البشر كـ«نقاط» أو «أرقام» في لعبة فيديو، مما يقلل الوازع الأخلاقي ويجعل قرار القتل سهلاً نفسياً وتقنياً.

السيادة التقنية وصراع الرقائق

وخلص نحاس إلى أن الحرب باتت صراع «ميزانيات ذكية» و«تقنيات متطورة» لتصنيع المعالجات، واعتبر أشباه الموصلات (Chips) «سلاحاً استراتيجياً» يعادل الصواريخ النووية، مؤكداً أن الاستقلال البرمجي ضرورة قومية؛ لأن الاعتماد على خوارزميات أجنبية يعني منح «مفتاح السيادة» للدول الأخرى.

وأكد الدكتور محمود نديم نحاس في ختام رؤيته أن دخول الذكاء الاصطناعي لا يمثل مجرد تحسين للأدوات، بل إعادة تعريف للقوة والسيادة، وحذر من أن أخطر لحظة هي التي يبدأ فيها الإنسان بالثقة في الآلة أكثر مما ينبغي، مشيراً إلى أن المستقبل سيكون لمن يمتلك الخوارزمية الأذكى، ولكن البقاء سيكون لمن يمتلك الحكمة الكافية للتحكم في الآلة قبل أن تتحكم هي في مصير البشر، خصوصاً أن الآلة تفتقر إلى الرحمة والتقدير الأخلاقي والسياسي الذي يمتلكه القائد البشري.


«بيربليكسيتي» تطرح رؤية أوسع لدور الذكاء الاصطناعي في الحواسيب الشخصية

يعكس هذا التوجه سباقاً أوسع بين شركات التقنية للسيطرة على واجهة الاستخدام في عصر الذكاء الاصطناعي «بيربليكسيتي»
يعكس هذا التوجه سباقاً أوسع بين شركات التقنية للسيطرة على واجهة الاستخدام في عصر الذكاء الاصطناعي «بيربليكسيتي»
TT

«بيربليكسيتي» تطرح رؤية أوسع لدور الذكاء الاصطناعي في الحواسيب الشخصية

يعكس هذا التوجه سباقاً أوسع بين شركات التقنية للسيطرة على واجهة الاستخدام في عصر الذكاء الاصطناعي «بيربليكسيتي»
يعكس هذا التوجه سباقاً أوسع بين شركات التقنية للسيطرة على واجهة الاستخدام في عصر الذكاء الاصطناعي «بيربليكسيتي»

توسّع «بيربليكسيتي» طموحاتها إلى ما هو أبعد من البحث المدعوم بالذكاء الاصطناعي؛ إذ ترى أن المرحلة المقبلة من الحوسبة الشخصية ستقوم على مساعد أكثر وعياً بسياق المستخدم، وقادر على الاقتراب من نشاطه الرقمي اليومي.

وفي منشور جديد عبر موقعها الإلكتروني بعنوان «The Personal Computer Is Here»، تعرض الشركة هذه الرؤية باعتبارها جزءاً من توجه أوسع لجعل الذكاء الاصطناعي طبقة أكثر حضوراً في التصفح والبحث وتنفيذ المهام، بدلاً من بقائه أداة تُستخدم للإجابة عن الأسئلة المنفصلة فقط. ويتقاطع هذا الطرح مع الاهتمام المتزايد باستراتيجية «بيربليكسيتي» في مجال المتصفح، ومع مساعيها للانتقال من منتج بحث إلى واجهة أوسع للذكاء الاصطناعي الشخصي.

ولا تتمثل أهمية التطور هنا في أن الشركة نشرت بياناً جديداً عن منتجها فحسب، بل في أنها باتت تعرض تقنيتها بوصفها جزءاً من تحول أكبر في طريقة تفاعل المستخدمين مع الحواسيب. فبدلاً من تقديم الذكاء الاصطناعي كإضافة إلى سير العمل القائم، تضعه «بيربليكسيتي» في موقع الطبقة التي يمكن أن يمر عبرها هذا السير نفسه. وهذا يضع الشركة في منافسة أكثر مباشرة ليس فقط مع منافسي البحث بالذكاء الاصطناعي، بل أيضاً مع مطوري المتصفحات والشركات التي تحاول رسم واجهة الاستخدام المقبلة في عصر الذكاء الاصطناعي.

التحول الجديد يشير إلى أن «بيربليكسيتي» تريد أن تؤثر في طريقة استخدام الحاسوب لا في البحث فقط «بيربليكسيتي»

«توسيع دور بيربليكسيتي»

يكتسب هذا التحول أهمية خاصة؛ لأن «بيربليكسيتي» بنت حضورها الأول بوصفها منصة تعتمد على الإجابات المدعومة بالذكاء الاصطناعي والبحث على الويب. أما الآن، فتشير اللغة الجديدة التي تستخدمها الشركة إلى أنها تريد أن تُعرَف بدرجة أقل كوجهة لطرح الأسئلة، وبدرجة أكبر كنظام يفهم سياق المستخدم ويساعده في إدارة أنشطته الرقمية الأوسع. وعملياً، يعني ذلك الاقتراب أكثر من طريقة تصفح الأفراد، ومقارنتهم للمعلومات، واتخاذهم القرارات، وتنفيذهم المهام. وهو ادعاء أكبر بكثير من مجرد تقديم نتائج بحث أفضل.

كما يساعد السياق الصناعي الأوسع في تفسير هذا التوجه؛ فشركات الذكاء الاصطناعي تحاول بشكل متزايد تجاوز واجهات الدردشة المستقلة إلى بيئات برمجية تلتقط قدراً أكبر من النشاط اليومي للمستخدم. وأصبحت المتصفحات ساحة مهمة لهذا التنافس؛ لأنها تحتل بالفعل موقعاً مركزياً في كيفية عمل كثير من الناس على الإنترنت. ومن خلال ربط رسالتها بالحوسبة الشخصية لا بالبحث فقط، تبدو «بيربليكسيتي»، وكأنها تقول إن المتصفح والمساعد الذكي يبدآن في الاندماج.

الانتقال إلى طبقة أكثر التصاقاً بالمستخدم يفرض تحديات تتعلق بالسياق والخصوصية والموثوقية «بيربليكسيتي»

الخصوصية والموثوقية أولاً

لا يعني هذا الانتقال أن الطريق سهل؛ فوجود طبقة ذكاء اصطناعي أكثر التصاقاً بالمستخدم يتطلب الوصول إلى السياق، والاستمرارية عبر المهام، وقدراً كافياً من الثقة حتى يسمح الأفراد للبرمجيات بالاقتراب أكثر من عادات عملهم. وهذه متطلبات أكثر تعقيداً بكثير من مجرد الإجابة عن سؤال أو تلخيص صفحة. كما أنها ترفع سقف التحديات المرتبطة بتصميم المنتج، وتوقعات الخصوصية، والموثوقية. وتوحي الرسائل الأخيرة للشركة بأنها ترى أن هذا التحدي يستحق المخاطرة؛ لأن الميزة التنافسية المقبلة في الذكاء الاصطناعي قد لا تأتي فقط من جودة الإجابة، بل من التغلغل في سير العمل اليومي للمستخدم.

«بيربليكسيتي» توسع موقعها

ما يبرز أكثر من غيره هو اللغة التي باتت «بيربليكسيتي» تستخدمها في تعريف نفسها؛ فالشركة تبدو وكأنها تحاول تثبيت موطئ قدم في فئة تتجاوز البحث، بل حتى تتجاوز الدردشة. إنها تصف مستقبلاً لا يُستشار فيه الذكاء الاصطناعي من حين إلى آخر فحسب، بل يصبح طبقة تشغيل يومية في الحوسبة الشخصية. وهذا إطار استراتيجي أوسع بكثير من ذاك الذي عُرفت به حين ظهرت بدايةً بوصفها شركة ناشئة في البحث المدعوم بالذكاء الاصطناعي.

وبالنسبة إلى «بيربليكسيتي»، فإن دلالة هذا التحول واضحة؛ فالشركة لا تسعى فقط إلى تحسين الطريقة التي يعثر بها المستخدمون على المعلومات، بل تريد أيضاً أن تؤثر في الطريقة التي يتحركون بها داخل العمل الرقمي كله. وما إذا كانت قادرة على تنفيذ هذا الوعد يبقى سؤالاً مفتوحاً، لكن الاتجاه بات واضحاً: «بيربليكسيتي» تريد أن يكون لها دور ليس فقط فيما يسأله الناس للذكاء الاصطناعي، بل أيضاً في كيفية استخدامهم الحاسوب من الأساس.


دراسة سويسرية: الروبوتات قد تتعلم المهارة نفسها دون إعادة برمجة كاملة

الدراسة تقدم إطاراً جديداً يتيح للروبوتات نقل المهارات بين منصات مختلفة رغم اختلاف بنيتها الميكانيكية (EPFL)
الدراسة تقدم إطاراً جديداً يتيح للروبوتات نقل المهارات بين منصات مختلفة رغم اختلاف بنيتها الميكانيكية (EPFL)
TT

دراسة سويسرية: الروبوتات قد تتعلم المهارة نفسها دون إعادة برمجة كاملة

الدراسة تقدم إطاراً جديداً يتيح للروبوتات نقل المهارات بين منصات مختلفة رغم اختلاف بنيتها الميكانيكية (EPFL)
الدراسة تقدم إطاراً جديداً يتيح للروبوتات نقل المهارات بين منصات مختلفة رغم اختلاف بنيتها الميكانيكية (EPFL)

طوّر باحثون من مختبر «كرييت» (CREATE) في المعهد الفيدرالي السويسري للتكنولوجيا في لوزان (EPFL) في سويسرا إطاراً جديداً يهدف إلى معالجة واحدة من أكثر المشكلات إرباكاً في الروبوتات الصناعية تتعلق بكيفية تعليم مهارة واحدة لروبوتات مختلفة البنية من دون إعادة البرمجة من الصفر في كل مرة.

الدراسة المنشورة في دورية «Science Robotics» تقدم ما يسميه الباحثون «الذكاء الحركي»، وهو نهج يحوّل المهمة التي يعرضها الإنسان إلى استراتيجية حركة عامة، ثم يكيّفها تلقائياً مع التصميم الميكانيكي لكل روبوت على حدة.

تكمن المشكلة في أن الروبوتات، حتى عندما تُستخدم في أعمال متشابهة، لا تتحرك بالطريقة نفسها. اختلاف ترتيب المفاصل وحدود الحركة ومتطلبات الاتزان يجعل المهارة التي يتعلمها روبوت ما غير قابلة للنقل مباشرة إلى روبوت آخر. ولهذا؛ فإن تحديث أسطول الروبوتات في المصانع غالباً لا يعني استبدال العتاد فقط، بل يشمل أيضاً إعادة تعريف المهام، وضبط حدود الأمان، وإعادة التحقق من السلوك الحركي لكل منصة جديدة. الدراسة الجديدة تحاول فصل «فكرة المهارة» عن خصائص الروبوت الفردي، بحيث يصبح بالإمكان نقلها بين منصات مختلفة بتكلفة أقل وزمن أقصر.

الباحثون حوّلوا المهام التي يعرضها الإنسان استراتيجيات حركة عامة يمكن تكييفها مع كل روبوت على حدة (EPFL)

نقل المهارة بأمان

ولبناء هذا الإطار؛ بدأ الباحثون من مهام تلاعب بالأجسام عرضها إنسان، مثل الوضع والدفع والرمي. استخدم الفريق تقنيات التقاط الحركة لتسجيل هذه المهام، ثم حوّلها رياضياً استراتيجيات حركة عامة لا ترتبط بروبوت واحد بعينه. بعد ذلك، وضعوا تصنيفاً منظماً للقيود الفيزيائية الخاصة بكل تصميم روبوتي، مثل مدى حركة المفاصل والمواضع التي يجب تجنبها للحفاظ على الاستقرار. وبهذا، لم يعد الروبوت ينسخ حركة بشرية أو حركة روبوت آخر كما هي، بل «يفسر» المهارة ضمن حدوده الميكانيكية الخاصة.

في التجربة الأساسية، عرض إنسان مهمة مركبة على خط تجميع كدفع كتلة خشبية من سير ناقل إلى منصة عمل، ثم وضعها على طاولة، ثم رميها في سلة. ووفق التقرير، تمكنت ثلاثة روبوتات تجارية مختلفة تماماً من إعادة تنفيذ التسلسل نفسه بأمان وموثوقية باستخدام إطار الذكاء الحركي. والأهم أن النظام ظل يعمل حتى عند تغيير توزيع الخطوات بين الروبوتات؛ ما يشير إلى أن الإطار لا يحفظ مساراً واحداً فحسب، بل ينقل منطق المهمة نفسه إلى أجسام مختلفة.

أهمية النظام لا تقتصر على إنجاز المهمة بل تشمل الحفاظ على السلوك الآمن والمتوقع داخل حدود كل روبوت (أ.ف.ب)

أتمتة أسرع وأبسط

يقول الباحثون إن القيمة الرئيسية هنا لا تتعلق فقط بإتمام المهمة، بل بضمان أن كل روبوت ينفذها ضمن حدوده الآمنة. رئيسة المختبر أود بيلار وصفت ذلك بأنه معالجة لتحدٍ قديم في الروبوتات متعلق بنقل المهارة المتعلمة بين روبوتات ذات هياكل ميكانيكية مختلفة مع الحفاظ على سلوك آمن ومتوقع. أما أحد الباحثين المشاركين، فأوضح أن كل روبوت «يفسر المهارة نفسها بطريقته، ولكن دائماً ضمن حدود آمنة وقابلة للتنفيذ». هذه النقطة أساسية لأن كثيراً من أنظمة التعلم الروبوتي تُظهر أداءً جيداً في المختبر، لكنها تصبح أقل موثوقية عندما تنتقل إلى منصات أخرى أو إلى بيئات تشغيلية فعلية.

أهمية هذا النهج تظهر بوضوح في التصنيع، حيث يمكن أن يؤدي تبديل الروبوتات أو تحديثها إلى تعطيل طويل ومكلف. فإذا أمكن نقل المهارات بين الروبوتات المختلفة من خلال تمثيل عام للمهمة بدلاً من إعادة البرمجة التفصيلية، فقد يصبح نشر الروبوتات الجديدة أسرع وأكثر استدامة. التقرير يشير أيضاً إلى أن هذا يمكن أن يقلل حجم الخبرة الفنية المطلوبة لتشغيل الأنظمة في البيئات الواقعية، وهي نقطة قد تكون مهمة للشركات التي تريد توسيع الأتمتة من دون الاعتماد الكامل على فرق برمجة متخصصة لكل منصة.

لا يقف طموح الباحثين عند خطوط الإنتاج. فهم يرون أن الإطار قد يمتد إلى التعاون بين الإنسان والروبوت، أو إلى التفاعل المعتمد على اللغة الطبيعية، حيث يمكن للمستخدم أن يوجه الروبوت بأوامر بسيطة من دون الخوض في برمجة تقنية معقدة. كما يبدو النهج مناسباً للمنصات الروبوتية الناشئة، حيث تتطور العتاد بسرعة وقد تُستبدل النماذج الحالية بأخرى أحدث خلال فترة قصيرة. في هذه البيئات، لا تكون المشكلة في تعليم الروبوت مهمة واحدة فحسب، بل في الحفاظ على تلك المهارة قابلة للنقل مع كل جيل جديد من الآلات.