• رفح
  • غزة
  • الخليل
  • رام الله
  • القدس
  • نابلس
  • بيت لحم
  • أريحا
  • طولكرم
  • 0الدولار الامريكي
  • 0الدينار الاردني
  • 0اليـــــــورو
  • 0الجـنيه المصـري

تحذير.. ابتكار جديد يتلاعب بهاتفك دون علمك

تحذير.. ابتكار جديد يتلاعب بهاتفك دون علمك

شبكة فراس – وكالات


في وقت أصبح فيه العديد من الناس معتادين على الحديث إلى أجهزتهم الذكية، بأن يطلبوا منها أن تقرأ لهم، أو أن تشغل لهم أغنية أو أن تضبط لهم منبهاً، قد يكون هناك شخصٌ ما آخر يتحدث إلى تلك الأجهزة سراً أيضاً، ويعطيها أوامر خفية، وهذا هو أكثر شيء يخيف الناس من التكنولوجيا الحديثة.


نحن نتحدث عن أوامر قد تستخدم في تحويل الأموال أو التسوق عبر الإنترنت وغيرها، لا يمكن أن تلاحظها الأذن البشرية، ويمكن أن تكون مصاحبة لموسيقى ما قادمة من المذياع. الأمر مخيف أليس كذلك؟، بالطبع ذلك الهاجس من وقوع اختراق أو قرصنة تتسبب في تسريب معلوماتهم الشخصية أو تتحكم في حساباتهم البنكية أو تتلاعب بملفاتهم الخاصة.


وعلى مدار العامين الماضيين، بدأ باحثون من الولايات المتحدة والصين إثبات أن هذا "الشخص الخفي" يمكنه أن يرسل "أوامر خفية"، لا يمكن للأذن البشرية أن تلتقطها، إلى برنامج سيري في أجهزة آبل، وبرنامج أليكسا لدى أمازون، والبرنامج المساعد لجوجل. وداخل أروقة معامل الأبحاث الجامعية، تمكن الباحثون من أن يفعلوا سراً نظم الذكاء الاصطناعي الموجودة في الأجهزة الذكية والميكروفونات الذكية، على نحو يمكن هذه النظم من الاتصال بأرقام هواتف أو فتح مواقع على الإنترنت.


وإذا ما وقعت هذه التقنية في يد من لا يرحم، يمكن استخدامها لفتح الأبواب أو تحويل الأموال أو التسوُّق عبر الإنترنت؛ بمجرد سماع صوت الموسيقى قادمة من المذياع.


وأظهرت مجموعةٌ من طلاب جامعة كاليفورنيا بيركلي وجامعة جورجتاون عام 2016 أن بوسعهم إخفاء الأوامر في "الضوضاء البيضاء" الموجودة في ما يصدر عن مكبرات الصوت وخلال مقاطع فيديو من على موقع اليوتيوب، لتحويل الأجهزة الذكية إلى وضع الطيران أو لفتح موقع على شبكة الإنترنت.


ونشر بعض هؤلاء الباحثين في بيركلي هذا الشهر، مايو/أيَّار، ورقةً بحثية ذهبت إلى ما هو أبعد من ذلك، بالقول إن بوسعهم إخفاء تلك الأوامر مباشرة في تسجيلات موسيقية أو نصٍ مقروء. إذن، بينما تلتقط الأذن البشرية صوت حديث شخص أو عزف أوركسترا، يمكن أن يسمع مكبر صوت أمازون تعليماتٍ بإضافة شيء إلى قائمة التسوق الخاصة بك.


وفي العام الماضي، بيَّنَ باحثون من جامعة برنستون وجامعة تشجيانغ في الصين أن أنظمة التعرُّف على الصوت يمكن تفعيلها باستخدام ترددات غير مسموعة للأذن البشرية.


ويعمل الهجوم في البدء على إسكات صوت الهاتف بحيث لا يستطيع مالكه سماع استجابات النظام أيضاً، ويمكن لهذه التقنية، التي أطلق عليها الباحثون الصينيون اسم DohphinAttack أن تملي على الأجهزة الذكية أوامر بزيارة مواقع ضارة، أو إجراء مكالمات هاتفية، أو التقاط صورة أو إرسال رسائل نصية.


وفي حين أن هذا الهجوم له مواطن قصور، مثل أن المرسل لابد أن يكون قريباً من الجهاز المستقبل، فإن الخبراء حذروا من إمكانية وجود أنظمة أخرى أشد قوة تعمل بموجات فوق صوتية.


وصدر هذا التحذير في أبريل/نيسان الماضي، حين عرض باحثون في جامعة إلينوي في أوربانا-شامبين أن الهجمات فوق صوتية من على بعد 25 قدماً. وفي حين لا يمكن للأوامر أن تخترق الجدران، يمكنها التحكم في الأجهزة الذكية عبر النوافذ المفتوحة من خارج المبنى.


واستعرضت مجموعة أخرى من الباحثين الأميركيين والصينيين من أكاديمية العلوم في الصين وغيرها من المؤسسات هذا العام كيف أن بوسعهم التحكُّم في الأجهزة التي يجري تفعيلها باستخدام الحاسوب من خلال أوامر مدمجة داخل أغنيات يمكن إذاعتها عبر المذياع أو تشغيلها على خدمات مثل اليوتيوب.


ومؤخراً، دمج كارليني وزملاؤه في جامعة بيركلي أوامر داخل تسجيل صوتي تعرفت عليه برمجيات DeepSpeech التابعة لموزيللا لترجمة الأصوات إلى نصوص، وهي برمجيات مفتوحة المصدر، وكانوا قادرين على إخفاء الأمر التالي: "حسناً جوجل، تصفح evil.com" في تسجيل لعبارة مسموعة "دون مجموعة البيانات، هذا المقال بلا فائدة"، ولا يمكن للبشر تمييز هذا الأمر. ودمجت مجموعة بيركلي كذلك الأمر في ملفاتٍ موسيقية، من بينها مقطع من أربع ثوانٍ من مقطوعة Requiem الخاصة بمجموعة Verdi الغنائية.


وقال نيكولاس كارليني، طالب الدكتوراة في السنة الخامسة في أمن الحواسيب بجامعة كاليفورنيا بيركلي، وهو أحد مؤلفي الورقة البحثية، لصحيفة The New York Times: "كنا نود أن نرى ما إذا كان بوسعنا أن نجعل الأمر أكثر خفاءً مما هو عليه".


وأضاف كارليني إنه في حين لا يوجد دليلٌ على أن تلك التقنيات غادرت معامل الأبحاث، فإنها مسألة وقت قبل أن يكتشفها شخصٌ ما ويبدأ استغلالها، "في تقديري أن أهل الشر يوظفون بالفعل أشخاصاً للقيام بما أقوم به".


وتظهر هذه الممارسات الخادعة كيف أن الذكاء الاصطناعي، حتى وهو يحقق خطوات عظيمة في طريق التطور، يمكن أن يجرى التلاعب به، ويمكن خداع الحواسيب وجعلها ترى الطائرة في صورة قطة بمجرد تغيير بعض البيكسلات في الصورة الرقمية، بينما يمكن للباحثين أن يجعلوا سيارة ذاتية القيادة تنحرف أو تزيد من سرعتها بمجرد وضع ملصقات صغيرة على علامات الطرق والتشويش على منظومة الرؤية الحاسوبية في المركبة.


وقال تافيش فايديا، الباحث في جامعة جورجتاون: "على الشركات أن تضمن سهولة الاستخدام فيما تنتجه من الأجهزة؛ لأن هذه نقطة البيع الوحيدة لديهم".


وكتب واحدةً من أوائل الأوراق البحثية التي تناولت الهجمات الصوتية، وحملت عنوان Cocaine Noodles لأن الأجهزة فسرت هذه العبارة بأنها "O.K., Google". وقال: "نريد أن نبيِّن أن هذا ممكن؛ وبالتالي نأمل أن يقتنع الآخرون بأنه ممكنٌ أيضاً، ويبدأوا في محاولة إصلاح الأمر".


التعليقات المنشورة لا تعبر عن رأي الموقع وإنما تعبر عن رأي أصحابها