Home >> مقال تقني >> "أخطر الاختراقات لا يرتكبها المتسللون بل الأثرياء"

"أخطر الاختراقات لا يرتكبها المتسللون بل الأثرياء"

 

إن بروس شناير، أحد الباحثين الأمنيين الرائدين في العالم، ومؤلف عشرات الكتب في هذا المجال ولقبه الإيكونوميست بـ "خبير الأمن"، مقتنع بأن المخترقين الذين نعرفهم اليوم سيكونون نوعًا من لعب الأطفال مقارنة بما هو متوقع للبشرية في المستقبل القريب. نقاط الضعف في جميع النظم الاجتماعية والاقتصادية والسياسية، تستغلها بسرعة وعلى نطاق غير مسبوق، ونفعل ذلك للأثرياء والأقوياء: "عندها سنكون بالفعل في الكثير من المتاعب".


القبعات السوداء، والقبعات البيضاء، والمتسللين، وبرامج التجسس، والهجمات الإلكترونية، و NSO، و Candiro. عبارات من عوالم الإنترنت الهجومية والدفاعية تملأ حقائق حياتنا اليوم أكثر من أي وقت مضى. لكن القرصنة، كما يقول بروس شناير، أحد الباحثين الأمنيين الرائدين في العالم، كانت موجودة منذ فجر البشرية، وحصرها في شيء ما يحدث على أجهزة الحاسوب هو خطأ سوف ندفع ثمنه غالياً. "الذكاء الاصطناعي سوف يقتحم حياتنا"، كما يقول في مقابلة مع مدونة رسالة، دون ترك مجال للخطأ. ويوضح أن المتسللين سيجدون في المستقبل غير البعيد نُقَط ضعف في جميع أنظمتنا الاجتماعية والاقتصادية والسياسية، ويستغلونها بسرعة وعلى نطاق لا يمكن إصلاحه، ويفعلون ذلك للأثرياء والأقوياء.


"عندما تفكر في أحد المتطفلين، فإنك تفكر في شخص ينظر إلى رمز الحاسوب ويجعله يفعل شيئًا لم يكن ينوي القيام به،" يوضح، "أعتقد أنه يمكن تطبيق هذه الفكرة على أي مجموعة من القواعد. الرمز، هو خوارزمية.

 تحتوي على مدخلات ومخرجات، ولها خطوات. تقوم بإدخال مبلغ المال الذي كسبته، والإخراج هو مقدار الأموال التي تدين بها. هناك أيضًا أخطاء في رمز الضرائب، وهناك ثغرات أمنية. نسمي هذه الثغرات الضريبية ثغرات وهناك طرق لاستغلال هذه - الولايات المتحدة "نسميها استراتيجيات التهرب الضريبي. "وهناك صناعة كاملة من قراصنة القبعة السوداء (لاعبون سيئون - VA) يتطلعون إلى العثور على ثغرات وثغرات لاستغلال انتهاكات قانون الضرائب. ويطلق عليهم محامي الضرائب والمحاسبين.


بروس شناير ( الصورة إريك نيلسون )
بروس شناير ( الصورة: إريك نيلسون )


إذا كنت تريد التخلص من الفوضى التي لديك، فسيكون القيام بذلك آمنًا، ولن تتمكن من الوصول إليه. أكمل الاختصار وحدد الاختصار التالي من الاختصار. يقول: "يمكنك التفكير في أي مجموعة من القواعد". مكان ".


في المستقبل غير البعيد على الإطلاق، ورقة التقييم هذه، سيقوم البشر بإطعام وتعلم وتدريب أنظمة الذكاء الاصطناعي (AI) في رموز أنظمتنا الاجتماعية والاقتصادية والسياسية - القوانين والقواعد والسوابق والأحكام، و أرسلهم بحثًا عن نقاط الضعف. عندما يجدون هذه، ووجدوا أنه يعد به، سنكون في ورطة كبيرة. لأنه بمجرد أن تبدأ أنظمة الحاسوب في البحث عن الثغرات حيث بحث البشر مرة واحدة ، سيجدون المزيد من نقاط الضعف بشكل أسرع وبطريقة لن نكون قادرين على التفكير في أنفسنا. في بعض الأحيان تكون الاختراقات أكثر تعقيدًا مما كان يتخيله العقل البشري أو سيجده عن طريق الصدفة، وقد تكون الفجوة كبيرة جدًا لدرجة أننا لا نلاحظ على الإطلاق حدوث التلاعب في النظام، ويمكن أن يستمر الاحتيال دون تمييز لسنوات.


نفس العقد الورقي المستقبلي لا يشمل الروبوتات السيئة، والنية الخبيثة، واللحظة الفريدة، ولا حتى اختراقًا مهمًا في البحث. بالتأكيد لا، هذا هو المستقبل الذي يوجد اليوم بالفعل دليل ينذر بالخطر على تحقيقه: من التداول الخوارزمي الذي يشوه سلوك السوق من صنع الإنسان، إلى روبوتات المحادثة التي تعطل ما نعتقد أنه خطاب حقيقي ومعلومات موثوقة. "حتى اليوم في كثير من الأحيان من المستحيل التمييز بين الأشخاص الحقيقيين وروبوتات الدردشة وسيزداد الأمر سوءًا عندما يتحسنون وسيؤثر ذلك علينا بشدة"، يقدم شناير مثالًا حقيقيًا ويشرح عمق المشكلة للمستقبل: " فكر في معتقداتنا ومعتقدات من حولنا نحن اجتماعيون وبالتالي نقيس مستوى معقولية معتقداتنا على أساس الأشخاص من حولنا.


"لن يكون لديهم مفهوم الصندوق" 

عندما تتحدث الورقة، يجب أن تستمع. أطلق عليه الإيكونوميست لقب "المعلم الأمني"، وهو مؤلف 14 كتابًا ذائع الصيت، بعضها تألق لأسابيع في قائمة أفضل الكتب مبيعًا في نيويورك تايمز. وهو خبير تشفير وخصوصية رائد، ويعمل كمحاضر للسياسة العامة في كلية هارفارد كينيدي وشريك في مركز بيركمان كلاين للإنترنت والمجتمع بجامعة هارفارد. وهو عضو مجلس استشاري في مركز معلومات الخصوصية الإلكترونية (EFF)، ويعمل كمهندس أمني رئيسي لشركة Inrupt لمشروع مخترع الشبكة الجديد Tim Berners-Lee، ويكتب بانتظام لصحيفة الجارديان، ونيويورك تايمز، ووايرد آند فورين بوليسي.


بفضل خبرته الغنية والمتنوعة، يتحرك الورق بحزم بين وجهات النظر: مبرمج، باحث، إنساني وناشط، وهي حركة سمحت له بطمس الحدود بين المساحة المادية والحاسوبية والمفاهيمية ، ورؤية أن القرصنة أو "القرصنة" هي في الواقع إنسان عملية نحاول فيها التلاعب بالأنظمة. نسعى لتحقيق الثروة والتأثير والسلطة، والتي يتم نقلها الآن إلى أنظمة محوسبة. يشارك شناير رؤيته القاتمة في مقال استثنائي نشر في مايو الماضي بواسطة AI Hackeres لمجلس استخدام الذكاء الاصطناعي، حيث يشرح بمهارة كيف ستهدد أنظمة التعلم الآلي جميع القواعد واللوائح الحالية، ولماذا لا يوجد شيء واضح يمكن أن يتوقف. العملية.


حول تجرِبة أجريت في الولايات المتحدة استخدم الباحثون برنامج كتابة نصوص لتقديم ألف تعليق للجمهور، استجابة لطلب الحكومة حول الخطة الصحية. لقد بدوا جميعًا وكأنهم أناس حقيقيون وقد تم خداعهم (الصورة وكالة الصِّحافة الفرنسية).

حول تجرِبة أجريت في الولايات المتحدة: "استخدم الباحثون برنامج كتابة نصوص لتقديم ألف تعليق للجمهور، استجابة لطلب الحكومة حول الخطة الصحية. لقد بدوا جميعًا وكأنهم أناس حقيقيون وقد تم خداعهم "(الصورة: وكالة الصِّحافة الفرنسية).


عندما تتحدث الورقة عن الذكاء الاصطناعي، فإنها تشير إلى الأنظمة التي تتعلم أداء المهام من خلال التعلم من الأمثلة بدلاً من البرمجة الواضحة. تحتاج هذه الأنظمة إلى مجموعات بيانات ضخمة مصنفة إلى فئات، والتي يتعلمون منها من خلال الاستدلال الإحصائي. يمكن أن تكون مجموعات البيانات هذه، على سبيل المثال، رمز ضريبي عالمي، أو قاعدة بيانات للقوانين واللوائح والسوابق والأحكام وأنظمة التجارة العالمية أو اللوائح الانتخابية. عندما يطلب الناس من أنظمة الذكاء الاصطناعي حل المشكلات، فإنهم سيحددون مثل "دفع أقل معدل ضرائب قانوني" أو عندما يسأل المستثمر نظامًا درس آليات الاستثمار المختلفة في تداول الأسهم لإيجاد طريقة فعالة بشكل خاص لتحقيق الربح، قد يجدون ثغرات قانونية على ما يبدو، وسيكون الشخص واضحًا من حيث السياق أن هناك مشكلة في الحل المختار وسنشعر بالانحراف أو الغش. هذا لأنها لا تحل مشكلات مثل البشر. يكتب شنير: "سيفكرون خارج الصندوق لأنهم لا يملكون تصورًا عن الصندوق".


لكن أنظمة الذكاء الاصطناعي تشبه الصندوق الأسود، فهي سيئة جدًا في شرح كيفية عملها بالطريقة التي تعمل بها، وأحيانًا لا تعرف أبدًا ما الذي فعلته. ما قد يبدو "حلاً" في نظر النظام، لن يظهر كذلك في نظر الإنسان لأن النظام لا يفهم المفاهيم المجردة للخداع أو الأخلاق. لا يفكر من حيث الآثار، والسياق، والمعايير والقيم التي يتقاسمها البشر ويأخذونها كأمر مسلم به.


لشرح هذه النقطة، يعرض الورق الفضيحة التي تورطت فيها شركة صناعة السيارات فولكس فاجن، والتي تم تغريمها 2.8 مليار دولار في عام 2017 لتطويرها وتثبيتها على أكثر من 10 ملايين سيارة، والغرض الكامل منها هو تزوير مكالمات انبعاثات الكربون. تم اختراق أنظمة الحاسوب للمركبات لأكثر من عقد من الزمان دون أن يعرف أي شخص عنها بخلاف مصمميها، ولم يتم الكشف عنها إلا عن طريق الخطأ من قبل الباحثين. هذه اختراقات بشرية، الآن بعد أن ادعت الورقة، هل يمكنك تخيل نظام ذكاء اصطناعي يفعل الشيء نفسه؟ ستجد حلاً لمشكلة ستتم صياغتها على سبيل المثال "تصميم محرك يحقق أقصى أداء أثناء اجتياز جميع اختبارات التحكم في الانبعاثات". السؤال الذي يتم صياغته بحسن نية، يمكن أن يقود النظام إلى تحقيق النتيجة المرجوة، ولكن خارج الإطار المقبول، وهو حل يقوض النظام ويقوض القانون. ولكن نظرًا لأن النظام عبارة عن صندوق أسود، فلن يكون واضحًا على الإطلاق ما فعله النظام، سيكون المحاسبون أو المصرفيون أو المستثمرون أو المبرمجون سعداء، وستتضخم جيوبهم، لكن حل الذكاء الاصطناعي سيكون سلبيًا بشكل أساسي ولن يكون كذلك. سوف يفهم المرء ذلك.


إذا كنت تعتقد أنه من الممكن منع حدوث مثل هذه النتيجة غير المرغوب فيها، ففكر مرة أخرى. تتضمن لغة الإنسان ونية الإنسان دائمًا أهدافًا ورغبات غير محددة يشرحها، ولا تصف قواعدنا أبدًا كل الاحتمالات. نحن لا نغلق جميع الطرق أبدًا، ولا ننجح أبدًا في تحديد جميع المحاذير والاستثناءات، لذا فإن جميع الأنظمة التي نبنيها سواء كانت النظام المصرفي أو الضريبي أو السياسي ستعاني دائمًا من الأخطاء التي ستجدها أنظمة الذكاء الاصطناعي. هذه مشكلة تعلمنا جميعًا درسها منذ الطفولة، كما تصف الورقة، على سبيل المثال في قصة اللمسة الذهبية لميداس. يكتب: "عندما يعطيه الإله ديونيسوس أمنية، يطلب ميداس أن يتحول كل شيء يلمسه إلى ذهب. ينتهي الأمر بميداس بالجوع والبؤس عندما يتحول طعامه وشرابه وحتى ابنته إلى ذهب". هذه مشكلة تُعرف باسم مشكلة محاذاة الذكاء الاصطناعي والتي تسلط الضوء على مدى صعوبة تحديد الأهداف لأنظمة الذكاء الاصطناعي، وكان هدف ميداس هو امتلاك مورد لا نهاية له للثروة.


"لا توجد طريقة للاستعداد"

يجادل شناير بأن الأمر مجرد مسألة وقت قبل أن يتم تكليف أنظمة التعلم بالمهمة الإشكالية المتمثلة في تبسيط جميع أنظمة الحياة البشرية واستغلالها واختراقها بأناقة، وعندما يحدث ذلك، سيتغير كل شيء. على الرغم من أن الأنظمة يتم اختراقها بالفعل اليوم، إلا أنه يتم تنفيذها بوتيرة بشرية، ولن يتمكن نظام IRS أو النظام السياسي أو المالي من التعامل مع عمليات اختراق الذكاء الاصطناعي وستضرب أسرع مما يمكن للأنظمة التعافي. يكتب شناير: "لن يتم تقييدهم بنفس الطرق، أو لديهم نفس الحدود ، كما يفعل الناس، سوف يغيرون سرعة ومدى القرصنة، بمعدلات لسنا مستعدين لها". القضايا، وإرسال مليارات الرسائل وإغراق كل نقاش عبر الإنترنت بين الناس. ما يبدو أنه نقاش سياسي محتدم سيكون روبوتات تتجادل مع الروبوتات الأخرى. ستؤثر بشكل مصطنع على ما نعتقد أنه طبيعي، وما نعتقد أن الآخرين يفكرون فيه. "


لديه سبب وجيه لتصديق هذا، لقد بدأ بالفعل في الحدوث. كيف على سبيل المثال؟ في تجرِبة أمريكية حديثة، استخدم الباحثون برنامجًا لصنع النصوص لتقديم ألف تعليق للجمهور، استجابةً لطلب الإدارة الأمريكية لبرنامج ميديكيد للصحة العامة.


حول تزوير انبعاثات فولكس فاجن تخيل أن نظام ذكاء اصطناعي سيُطلب منه تصميم محرك يقدم أقصى أداء أثناء اجتياز جميع اختبارات التحكم في الانبعاثات. من شأنه أن يقوض النظام.(الصورة بلومبرج).
حول تزوير انبعاثات فولكس فاجن: "تخيل أن نظام ذكاء اصطناعي سيُطلب منه تصميم محرك يقدم أقصى أداء أثناء اجتياز جميع اختبارات التحكم في الانبعاثات. من شأنه أن يقوض النظام".(الصورة: بلومبرج).


لكن على رأس قائمة الأولويات، هناك نظام مختلف تمامًا. "المكان الأول الذي يجب البحث فيه هو الأنظمة المالية. هناك الكثير من الأموال في محاولة العثور على ثغرات في النظام المالي ونعلم بالفعل اليوم أن صناديق التحوط توظف خبراء في الذكاء الاصطناعي." من الواضح أن الطريقة ليست معقدة للغاية لأن النظام المالي يتم إدارته على أجهزة الحاسوب في الوقت الفعلي، وسوف تلتقي بالأنظمة المحوسبة بواجهة ذات صلة، وتغذيها بالقوانين واللوائح وأي معلومات أخرى ذات صلة ثم تقوم بتشغيلها بـ "أقصى حد" واحد. الربح من الناحية القانونية ". وخلصت الورقة إلى أنه من المحتمل أن تكون هناك بعض الثغرات التي ستتجاوز الفهم البشري ولن نفهم أبدًا حدوثها. سيتم التلاعب بالنظام لعدد قليل ولا توجد طريقة لمعرفة ذلك.


يؤكد شناير: "من المهم أن نلاحظ أن أفضل عمليات الاختراق لا تتم بواسطة المستضعف"، "ليس من قبل المجرمين أو المتسللين، ولكن من قبل الأثرياء والأقوياء والحكومات. وأفضل المتسللين لقانون الضرائب هم الأغنياء، وليسوا فقير. عندما تفكر في قراصنة بينا. بشكل مصطنع، ستكون هناك ديناميكية للقوة ". وهذا يعني أن هذه الأنظمة وأنشطتها في خدمة مصالح ضيقة للغاية ستقوي بشكل كبير هياكل السلطة القائمة.


يوضح شناير أنه مع تحقق هذه العمليات، ستواجه أنظمتنا الاجتماعية والسياسية حوضًا مكسورًا. يكتب: "لدينا أنظمة اجتماعية تتعامل مع القرصنة، ولكن تم تطويرها عندما كان المتسللون بشرًا، وتعكس وتيرة المتسللين من البشر. ليس لدينا نظام حكومي يمكنه التعامل مع المئات - ناهيك عن الآلاف - تم اكتشاف ثغرات ضريبية مؤخرًا. نحن ببساطة لا نستطيع إصلاح قانون الضرائب بسرعة. لا يمكننا التعامل مع الأشخاص الذين يستخدمون فيسبوك لاقتحام الديمقراطية، ناهيك عما سيحدث عندما يفعل الذكاء الاصطناعي. "السطو أصبح مشكلة لم يعد بإمكاننا كمجتمع إدارتها ".


هل هناك طريقة لإبطاء هذه العملية للدفاع عن نفسك؟

"لا أعتقد أن هذا ممكن. التكنولوجيا ستفعل ذلك، وسوف يجعل الناس التكنولوجيا تفعل ذلك. هناك طرق دفاعية، وفكرة أنه يمكن استخدام نفس المتسللين ونفس الديناميكيات للدفاع عن أنفسهم. ولكن في الحقيقة لا توجد إجابة صحيحة الآن. سيحدث، ما هو الرد على الثغرات الضريبية؟ أنت تحاول سن قوانين بدون ثغرات ضريبية، لكن لا يمكنك ذلك لأن الأغنياء والأقوياء يقنعون الكونجرس بوضع ثغرات داخل القوانين. إلى الأمام، ولكن لا توجد طريقة للاستعداد لها. ابدأ في الالتفات إليها ".


إذن علينا فقط أن نرى ذلك يحدث ونتفاعل في وقت لاحق؟

"نعم. هذه ليست إجابة جيدة ولكن في بعض الأحيان الأسئلة الجيدة ليس لها إجابات جيدة. ولكن لمجرد عدم وجود إجابة في الوقت الحالي لا يعني عدم وجود إجابة على الإطلاق. هذه مشكلة يجب علينا حلها."


ما الذي يمكن عمله على أي حال؟ استفد من هذه الأنظمة لاكتشاف الاختراقات في وقت مبكر، وتوظيف خبراء الأمن الذين سيحاولون تحديد نقاط الضعف في أنظمتنا الاجتماعية المختلفة مثل قانون الضرائب ولوائح الانتخابات، وهو ما يسميه شناير "اختراق الشركة". لكن هذا النشاط سيتطلب مرونة غير عادية من جانب الحكومة ومؤسساتها للاستجابة بكفاءة وسرعة، وليس السنوات القياسية العديدة المطلوبة لتعديل قانون الضرائب أو تمرير تغيير تنظيمي في اللوائح المصرفية. خاصة أن التغييرات السريعة من هذا النوع ستواجه قوة قوية، من أولئك الأقوياء الذين حددوا الثغرات، لتركها سليمة.




ليست هناك تعليقات:

Contact Us

الاسم

بريد إلكتروني *

رسالة *

المشاركات الشائعة