​الذكاء الاصطناعي والسياسة والحرب

حسيمة سيتيمنذ 3 ساعاتآخر تحديث :
​الذكاء الاصطناعي والسياسة والحرب
​الذكاء الاصطناعي والسياسة والحرب

في أواخر يناير/كانون الثاني الماضي، نشب خلاف بين وزارة الدفاع- الحرب- الأمريكية، وشركة “أنثروبيك” “Anthropic” للذكاء الاصطناعي، حول العقد المبرم بين الجانبين، والبالغ قيمته 200 مليون دولار، والذي بمقتضاه وستخدم البنتاغون برنامج الذكاء الاصطناعي المعروف باسم “كلود” “claude” في العديد من التطبيقات العسكرية فيما يتعلق باستخدامات الأسلحة والعمليات العسكرية بصفة عامة.

وقد تمحور هذا الخلاف حول طلب البنتاغون تغيير بعض شروط العقد التي تنص على عدم الاعتماد على البرنامج في التحكم بأسلحة ذاتية الاستخدام بدون إشراف بشري، وكذلك عدم استخدامه في عمليات الرقابة الجماعية على المواطنين داخل الولايات المتحدة.

لقد طلب البنتاغون إلغاء هذين الشرطين واستبدالهما بشرط ينص على حق البنتاغون في استخدام البرنامج، بما لا يتعارض مع القانون.

وكانت الحجة في ذلك هو عدم قبول وزارة الدفاع بوضع قيود من قبل الشركات المنتجة لمثل هذه البرامج على استخدامات الوزارة لها.

بيد أن المدير التنفيذي لشركة أنثروبيك، داريو أمودي “Dario Amodei”، رفض الطلب، على أساس أن مثل هذه البرامج لم تصل بعد إلى مرحلة من الإتقان بحيث يمكن الاعتماد عليها كلية في تشغيل الأسلحة الهجومية ذاتيا، ودون إشراف بشري.

أما فيما يتعلق بالرقابة الجماعية على المواطنين، فإنه اعتبر هذا المنحى من سمات الدول الاستبدادية، وأن القوانين المعمول بها في الولايات المتحدة في هذا الشأن، بهدف حماية الحريات الفردية، لم تعد تناسب التطورات الجديدة التي حدثت نتيجة تطبيقات الذكاء الاصطناعي.

وعندما لم يتم التوصل لاتفاق بين الطرفين في الموعد الذي حدده وزير الدفاع الأمريكي، الساعة الخامسة مساء 27 فبراير/شباط، أصدر الرئيس دونالد ترمب أمرا يقضي بعدم استخدام أنظمة شركة أنثروبيك في أي من إدارات الحكومة الأمريكية.

وفي الوقت ذاته، أصدر وزير الدفاع قرارا باعتبار الشركة “خطرا أمنيا على سلسلة الإمدادات” للولايات المتحدة، بما من شأنه منع أي شركات أخرى من استخدام منتجات شركة أنثروبيك في أي مشروعات تتعاقد بشأنها مع الحكومة الأمريكية.

هذا الإجراء الأخير لم يسبق اتخاذه تجاه أي شركة أمريكية، إذ كان مقصورا على بعض الشركات الأجنبية التي ترى الحكومة الأمريكية أنها تعمل لصالح حكومات معادية لها، بما يعرض الأمن القومي الأمريكي للخطر، وهو ما حدث على سبيل المثال مع شركة “هواوي” الصينية.

وفي نفس اليوم، 27 فبراير/شباط، وبعد ساعات قليلة من قرار ترمب وقف التعامل مع شركة أنثروبيك، أعلن البنتاغون عن إبرام عقد مع شركة الذكاء الاصطناعي “أوبن إيه آي” “OpenAI” لاستخدام برنامجها “تشات جي بي تي” “Chat GPT” بديلا لبرنامج كلود.

وعقب ذلك، أصدر سام ألتمان المدير التنفيذي لشركة “أوبن إيه آي” بيانا كشف فيه أن العقد مع البنتاغون يتضمن قيودا على استخدام برنامج الشركة، تماثل ما كان مفروضا في عقد شركة أنثروبيك مع إضافة قيود أخرى إليه.

لقد ترتب على ذلك إثارة عدد من التساؤلات حول الدوافع وراء إلغاء البنتاغون العقد مع شركة أنثروبيك، وإبرام عقد مع شركة أخرى بذات الشروط، أضف لذلك ما لوحظ بالنسبة للسرعة التي تم بها إبرام العقد الجديد.

وكمحاولة لتفسير وفهم ما جرى، فقد ترددت روايات عن التقارب فيما بين شركة “أوبن إيه آي” والإدارة الأمريكية، بما في ذلك قيام رئيس الشركة غريغ بروكمان في سبتمبر/أيلول 2025 بالتبرع بمبلغ 25 مليون دولار لصندوق تابع لحركة “ماغا” التي بدأها الرئيس الأمريكي وتضم القاعدة الصلبة من مؤيديه.

كما أن سام ألتمان، المدير التنفيذي، يعتبر من أهم مستشاري الرئيس في مجالات الذكاء الاصطناعي.

هذا الأمر في مجمله ينقلنا إلى موضوع الاعتبارات السياسية وتأثيرها على تطبيقات الذكاء الاصطناعي، مما سينعكس بدوره على العديد من الأنشطة التي باتت تتأثر بهذه التطبيقات، وربما كان في مقدمتها، حاليا، المجالات العسكرية.

عند النظر للمجال العسكري، سنلاحظ أنه بينما كان النقاش في السابق يدور حول ما إذا كان من المقبول أساسا استخدام الذكاء الاصطناعي في التطبيقات العسكرية بما يترتب على ذلك من استبعاد للدور البشري في اتخاذ قرارات في ظروف حرجة قد يكون لها عواقب مصيرية، فالواقع حاليا أن ذلك أصبح مقبولا بحيث صار النقاش الآن يدور حول كيفية الاستخدام، وهو ما سيتأثر بالضرورة بالتوجهات السياسية والأيديولوجية لكل من طرفي المعادلة في هذا الشأن: السلطة صاحبة القرار النهائي، والشركة المنتجة للبرنامج بما تضعه من مواصفات وضوابط تقنية.

وفي هذا السياق، يبرز تساؤل مهم: هل يؤدي رفض البنتاغون التعامل مع شركة أنثروبيك- بما هو معروف عنها من تمسك بمعايير قانونية وأخلاقية تعكس قناعات مؤسسيها ومديرها التنفيذي داريو أمودي، واستبدالها بشركة أخرى معروفة بقربها من الإدارة- إلى التوسع في استخدامات الذكاء الاصطناعي في العمليات العسكرية، ما قد ينتج آثارا خطيرة فيما يتعلق بطبيعة وعواقب أي مواجهات عسكرية في المستقبل، وما لذلك من انعكاسات على توجهات دول أخرى قد ترى من مصلحتها اتباع نفس النهج.

وهذا الأمر الأخير بالذات يكتسب أهمية خاصة، حيث إنه في الوقت الذي تسيطر فيه القطبية الثنائية الممثلة في الولايات المتحدة والصين بما لديهما من إمكانات مادية وتقنية على مجالات الذكاء الاصطناعي بحثا وتطبيقا، إلا أنه من المتوقع- كما حدث سابقا في العديد من مجالات التطور التكنولوجي- أن تدخل قوى جديدة إلى هذه الساحة مع سهولة توفر الإمكانات سواء ماديا أو تقنيا.

بل إنه في وقتنا الحالي توجد قوى أخرى خارج هذه القطبية الثنائية تمكنت بقدرات ذاتية وعلاقات قوية مع أحد القطبين، من استخدام الإمكانات الواسعة للذكاء الاصطناعي في المجال العسكري على وجه الخصوص، والمثال الواضح على ذلك هو إسرائيل وما قامت به في قطاع غزة من تدمير مادي وبشري مستخدمة في ذلك هذه التطبيقات المتقدمة بلا قيود سواء تقنية أو قانونية، وهو ما تقوم به حاليا في لبنان.

والجدير بالملاحظة أن كل هذا يحدث ونحن ما زلنا في البدايات المبكرة للإمكانات المحتملة لتطبيقات الذكاء الاصطناعي، فماذا سيكون عليه الوضع بعد خمس سنوات من الآن؟، وهو ما يعتبر دهرا طويلا بمقاييس هذا الفرع الجديد من المعرفة، وما سيستدعيه ذلك من تغييرات في الأنماط المؤسسية والمجتمعية عموما.

اترك تعليق

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *


شروط التعليق :

عدم الإساءة للكاتب أو للأشخاص أو للمقدسات أو مهاجمة الأديان أو الذات الالهية. والابتعاد عن التحريض الطائفي والعنصري والشتائم.

الاخبار العاجلة

نستخدم ملفات الكوكيز لنسهل عليك استخدام موقعنا الإلكتروني ونكيف المحتوى والإعلانات وفقا لمتطلباتك واحتياجاتك الخاصة، لتوفير ميزات وسائل التواصل الاجتماعية ولتحليل حركة الزيارات لدينا...لمعرفة المزيد

موافق