×

  الاعلام و التکنلوجیا

  كيف يهدد الذكاء الاصطناعي الأمن القومي للدول؟



التكنولوجيا المربكة

 

*إنترريجونال للتحليلات الاستراتيجية

لا شك في قدرة الذكاء الاصطناعي على الارتقاء بحياة البشر، واتخاذ قرارات صحيحة، وأداء بعض المهام الخطيرة، والعمل لساعات متواصلة دون الإصابة بالإرهاق، وزيادة الإنتاجية، وغير ذلك من المهام التي تساعد المجتمعات، وتتجاوز في الوقت ذاته جوانب القصور البشري. وقد ساهمت تلك الإيجابيات في تنامي استخدامه في مختلف المجالات السياسية والعسكرية والأمنية؛ الأمر الذي تولد عنه جملة من التهديدات والمخاطر في المجالات نفسها؛ إذ يمكن استخدام الذكاء الاصطناعي لشن هجمات سيبرانية متقدمة، وابتكار أسلحة بيولوجية مُستحدَثة، وفبركة الفيديوهات ومقاطع الصور، واستهداف المدنيين في الصراعات المسلحة، وهو ما يتفاقم سوءاً من جراء انعدام القواعد القانونية والأخلاقية الحاكمة له.

 

تهديدات بارزة

يترتب على استخدام الذكاء الاصطناعي في مختلف المجالات السياسية والعسكرية والأمنية جملة من التهديدات يمكن الوقوف عليها تفصيلاً في النقاط التالية:

 

1– تغيير هيكل الوظائف:

يؤثر الذكاء الاصطناعي سلباً في عدد واسع من المهن والوظائف التي ينذر بنهايتها، لا سيما المهن الروتينية والخطيرة، مقابل استحداث وظائف أخرى؛ فقد تحل الآلة محل الإنسان، وهو ما يعني الاستغناء عن العاملين، وتزايد معدلات البطالة، انطلاقاً من أن الذكاء الاصطناعي يعادل أو قد يفوق الذكاء الإنساني، بيد أنه – في المقابل – قد تُستحدَث مهن جديدة مرتبطة بالذكاء الاصطناعي والثورة الصناعية الرابعة، كما سيزداد الطلب – بالتبعية – على الوظائف ذات الصلة بالبرمجة وتحليل المعلومات، فضلاً عن المهن المرتبطة بإدارة وصيانة وتجنب المخاطر، وهو ما يؤثر بشكل مباشر في هيكل القوى العاملة والإنتاجية وحراك العاملين وتدريباتهم.

 

2– التحيز المتأصل في بعض التطبيقات:

 يعتمدالذكاء الاصطناعي على البيانات التي تُقدَّم له، وتلك البيانات لا تنفصل عن معتقدات ورؤية ومنطلقات أصحابها؛ ما يعني أن الذكاء الاصطناعي قد يُكرِّس التحيزات الموجودة في العالم الحقيقي، وأن الخوارزميات المستخدَمة قد تكون متحيزة بطبيعتها؛ فقد تتسلَّل الأخطاء من خلال اختيار البيانات المتحيزة لنماذج التعلم الآلي، وكذلك التحيز والافتراضات في المنطق المدمج.

لذا تحتاج مختلف المؤسسات إلى التأكد من أن البيانات المستخدمة لإنشاء الخوارزميات الخاصة بها تتخلص من التحيز قدر الإمكان، وهو ما يعني استحالة القضاء على التحيز المتأصل في الذكاء الاصطناعي من ناحية، وضرورة المفاضلة بين إصلاح التحيز في النظام ومدى دقة الذكاء الاصطناعي مع إمكانية التضحية بالدقة لإصلاح التحيز من ناحية ثانية. ولا شك أن الفرضيات المتحيزة التي تنتج على خلفية عملية تطوير الخوارزمية، إنما تعكس عنصرية المجتمع وتحيزه ضد فئة معينة؛ لذا تزداد الحاجة إلى أنظمة عادلة قادرة على اتخاذ قرارات منصفة ومُجرَّدة من أشكال العنصرية والتحيز.

 

3– تراجع الضوابط الأخلاقية:

 مع تزايد استخدام الأسلحة الذاتية التشغيل على نطاق دولي واسع؛ تعددت – في المقابل – الانتقادات الموجهة لها بالنظر إلى انعدام تقيدها بالضوابط الأخلاقية والقانونية الدولية؛ فلا شك في حق الإرهابيين – على سبيل – في محاكمات عادلة انطلاقاً من عالمية مبادئ حقوق الإنسان التي يتمتع بها البشر بوصفهم بشراً بصرف النظر عن طبيعة الجرم الذي ارتكبوه، بيد أن استخدام الدرونز وغيرها من أشكال الأسلحة الذاتية التشغيل لاستهدافهم، يعطي مستخدم تلك الأسلحة الحق في تصفية أرواحهم بدون سند قانوني أو محاكمة عادلة.

ولا شك في تزايد الخسائر البشرية الناجمة عنها في حالة استخدامها في مناطق سكنية مزدحمة؛ ما يعني تزايد الخسائر المحتملة في صفوف المدنيين، بجانب تصفية الإرهابيين على نطاق واسع. وفي هذا الإطار، تدفع بعض الدراسات بأن 80% من الوفيات الناجمة عن غارات الطائرات بدون طيار تحدث بين صفوف المدنيين الذين يكفل لهم القانون الدولي الإنساني الحق في الحماية في حالات الصراعات المسلحة.

 

4– إمكانية امتلاك الذكاء الاصطناعي الوعيَ الذاتي:

 أثيرت العديد من التخوفات خلال السنوات الأخيرة حول قدرة تطبيقات الذكاء الاصطناعي على امتلاك درجة من الوعي الذاتي. وهذه التخوفات تفاقمت مع التقارير التي كشفت في شهر يونيو الماضي عن امتلاك برنامج “لامدا” – الذي تطوره شركة جوجل، باعتباره برنامجاً للدردشة والحوار يستخدم الذكاء الاصطناعي – قدراً من الوعي الذاتي المنفصل عن قرار مُطوِّره البشري.

وفي هذا الصدد، وفي ظل غياب القواعد القانونية المنظمة للروبوتات المقاتلة على سبيل المثال، تتزايد خطورة تطويرها ما يشبه الوعي الذاتي الذي يُمكِّنها من استهداف أهداف مستقلة؛ فقد تُظهِر –على صعيد الفضاء المدني أو العسكري – قدراً من الاستقلال الذاتي دون إشراف بشري، وقد تُسفر عن عدم الاستقرار الاستراتيجي بفعل احتمالات تخريب البيانات المستخدمة بها؛ أي إن احتمالات فقدان السيطرة على أنظمة تسلحها في ساحات المعارك قد تؤدي إلى إشعال نيران صديقة أو إشعال فتيل الأعمال العدائية.

 

5– انعدام القدرة على التمييز بين الأهداف:

يعزز تراجع ضوابطتقنين استخدام الذكاء الاصطناعي في المجال العسكري من ناحية، واحتدام التنافس الدولي على تقنياته المختلفة من ناحية ثانية، المخاوف من تزايد استخدامه في الحروب والصراعات المسلحة، في ظل انعدام قدرة الذكاء الاصطناعي على مراعاة الأعراف والمواثيق الدولية والإنسانية التي تفرض التمييز بين الأهداف المدنية والعسكرية؛ ففي الوقت الذي يتمكن فيه العنصر البشري من تحديد أهدافه بما لا يخالف تلك الأعراف والمواثيق، تفشل الروبوتات المقاتِلة والأسلحة الذاتية التشغيل في استشعار الفرق بين الأهداف العسكرية والأهداف المدنية التي لا يجب المساس بها.

فالروبوتات المقاتلة تنتهك مبدأ التمييز (بمعنى صعوبة التمييز بين المدنيين والمقاتلين)، ومن شأن السماح لها باتخاذ قرارات الاستهداف، أن يؤدي إلى إصابات في صفوف المدنيين، وهو ما يصعب معه تحديد المسؤول عن مقتلهم (الشركات المبرمجة – الشركات المصنعة – الدول المستخدمة لها). ويتصل بذلك مسألة أخلاقية كبرى تبرز مع ترك قرارات الحياة والموت لأنظمة مستقلة، لا سيما في الحالات التي تخرج فيها عن السيطرة أو التي تمتلك فيها وعياً ذاتياً أو تُصَاب فيه بخلل.

 

6– إغفال تأثير البعد العاطفي:

لا يمكن إغفال انعدم قدرة الذكاء الاصطناعي على اتخاذ قراراته باستخدام العاطفة التي لا غنى عن الانسياق وراءها في بعض الحالات، خاصةً في حالة القرارات الجماهيرية؛ فمع اتجاه عدد من صناع القرار للاعتماد على الذكاء الاصطناعي لاتخاذ قراراتهم بموضوعية وصنع سياساتهم باحترافية؛ تبرز أهمية البعد العاطفي الذي لا يمكن لصانع القرار أن يتجاهل تأثيره، لا سيما في خطاباته السياسية التي تكفل له أمننة بعض القضايا، وخلق مشاعر الخوف والتهديد في نفوس المواطنين كي يتمكن من إعمال تدابيره الأمنية التي يجابه بها تهديداً ما بطرق استثنائية. وبجانب ذلك، لا يمكن للذكاء الاصطناعي أن يبتكر حلولاً فريدة للمشكلات؛ بسبب افتقاره للإبداع؛ إذ يمكن برمجته لإنتاج أفكار “جديدة” ولكن ليس أفكاراً أصلية؛ ما يحد من قدرته على اتخاذ القرارات المبتكرة التي يحتاج لها صانع القرار في كثير من الحالات.

 

7– شن هجمات سيبرانية متقدمة:

لقد صممت أنظمة الأمان القائمة على الذكاء الاصطناعي للحماية من مختلف التهديدات السيبرانية، بيد أنه في اتجاه مضاد لذلك، يمكن استخدام الأنظمة نفسها من قبل القراصنة والمخترقين والأجهزة الأمنية لشن هجمات التصيد الاحتيالي، والتهديدات الآلية، والروبوتات المستخدمة في الهجمات السيبرانية، وتغيير التعليمات البرمجية القابلة للتنفيذ، والتكيف مع أنظمة التشغيل كي تتجنب الفيروسات اكتشافها، واكتشاف برامج مكافحة الفيروسات، وتطوير طرق لمهاجمة تعليماتها البرمجية، وغير ذلك. وعلى صعيد آخر، يمكن خداع الأنظمة الأمنية القائمة على الذكاء الاصطناعي؛ لأنها ليست مثالية، ويمكنها ارتكاب أخطاء لأسباب مختلفة؛ منها تسمية البيانات غير الصحيحة، أو التجهيز الزائد لبيانات التدريب؛ ما قد يتسبب في خسائر مادية فادحة.

 

8– توظيف التنظيمات الإرهابية للذكاء الاصطناعي:

 شهدت السنوات القليلة الماضية لجوء بعض التنظيمات الإرهابية إلى تطبيقات الذكاء الاصطناعي في عملياتهم المختلفة؛ فعلى سبيل المثال، توظف بعض التنظيمات الدرونز المدعومة بتطبيقات الذكاء الاصطناعي، لشن هجماتهم على القواعد العسكرية، ومواقع تخزين النفط، والمطارات، واستهداف الدول المجاورة، وغير ذلك.

وبالتوازي مع ذلك، وظفت التنظيمات الإرهابية أيضاً “المركبات الذاتية القيادة”، لا سيما السيارات والشاحنات الصغيرة في هجماتها الإرهابية؛ حيث يستخدم الكمبيوتر المدمج في السيارة تقنيات التعلم العميق لتقليد عمليات اتخاذ القرار للسائق في التحكم في تصرفات السيارة والتوجيه والتسريع، وقد استخدمت بالفعل في هجمات دهس متعمدة في برلين في ديسمبر 2016، وفي الهجوم برشلونة في أغسطس 2017. إذ تُمكِّن تلك المركبات التنظيمات الإرهابية من تنفيذ هجماتها التقليدية عن بُعد دون الحاجة إلى التضحية بأرواح أحد التابعين أو المخاطرة بالقبض عليه.

 

9– تزايد إشكالية التزييف العميق:

 تتعدد مخاطر تقنية الخداع العميق التي يمكنها التأثير سلباً في الأمن القومي؛ فقد بات ممكناً تصميم فيديوهات تحذيرية من حرب وشيكة أو أخرى تزعم انسحاب مرشح ما من السباق الانتخابي على نحو يُخلِّف آثاراً كارثية، وهو ما دفع عضو مجلس النواب الأمريكي “ماركو روبيو” لاعتبار أن تلك التقنية تُعادل خطورة الأسلحة النووية، قائلاً “إن تهديد الولايات المتحدة الأمريكية تَطلَّب سلفاً 10 حاملات طائرات وأسلحة نووية وصواريخ بعيدة المدى. أما اليوم، فيتطلب ذلك التهديد دخول أنظمة الولايات المتحدة الإلكترونية وأنظمتها البنكية أو إنتاج فيديوهات مزيفة واقعية جداً قادرة على تدمير النظام الانتخابي وإضعاف البلاد داخلياً”.

 

10– تطوير وإنتاج أسلحة بيولوجية:

يمكن استخدام الذكاء الاصطناعي في إنتاج وتطوير الأسلحة البيولوجية، وهو ما لفتت صحيفة “ديلي ميل” البريطانية إلى خطورته؛ إذ يمكن للخوارزميات أن تحدد أشكالاً جديدة من المضادات الحيوية والأدوية لمكافحة العدوى، ويمكن – في المقابل – التلاعب بها للبحث عن أدوية سامة لتنتج جزيئات سامة يمكن توظيفها من قبل التنظيمات الإرهابية والمختبرات البيولوجية عالمياً، لا سيما مع توافر التقنيات اللازمة لذلك وتراجع تكلفتها المادية.

 

سلاح مزدوج

ختاماً، لا يمكن إغفال أن التوسع في استخدام الذكاء الاصطناعي سيكون له تأثير على التفاعلات المجتمعية والدولية المختلفة؛ إذ يقول ” كاي فو لي“ أحد أبرز المتخصصين في مجال الذكاء الاصطناعي – في مقدمة كتابه “القوى العظمى للذكاء الاصطناعي” – إنه على مدار سنوات عمله في المجال التدريبي لتقديم الذكاء الاصطناعي لمختلف الفئات العمرية، تمثل السؤال الأبرز بين المشاركين في هـذه الجلسات التدريبية حول إذا ما كان الذكاء الاصطناعي سيحل محل البشر لأداء جميع الوظائف في الاقتصاديات المعاصرة، إلا أنه يرى أن السؤال الأهم يجب أن يتمحور حول ماهية الوظائف التي سيشغلها البشر للعمل في انسجام وتَمَاهٍ مع متطلبات اقتصاديات الذكاء الاصطناعي.

وفي هذا السياق، يمكن اعتبار الذكاء الاصطناعي سلاحاً ذا حدين، بيد أن تنامي استخداماته في الحياة اليومية بصور وأشكال مختلفة من ناحية، وإمكانية توظيفه في مختلف المجالات من ناحية ثانية، يُحتِّمان النظر بإمعان في التهديدات التي قد تنجم عنه؛ لأنها قادرة على التأثير في هيكل الوظائف التي يعمل بها البشر، بل في القرارات المصيرية التي قد تتحكم في مصيرهم؛ ولهذا السبب على سبيل التحديد تتعالى الدعوات المطالِبة بتقنين استخداماته وتأطير قواعده الحاكمة.


06/03/2023