في صباحٍ مشمس، جلس العالِم «جيفري» أمام شاشة حاسوبه، يتأمل بقلقٍ النتائج المذهلة التي حققها نموذجه الجديد للذكاء الاصطناعي، الذي أظهر قدرةً غير مسبوقة على تحليل وتوقع أنماط السلوك البشري بدقةٍ عالية.
في البداية، شعر بالفخر والإنجاز، وارتسمت على وجهه ابتسامة، لكنها سرعان ما تلاشت حين استوعب الإمكانيات الخطيرة لاستخدام هذه التكنولوجيا بشكلٍ قد يضر البشرية.
تساءل في داخله بقلق: «هل نحن نبتكر أدواتٍ لتقدمنا أم نصنع أسلحةً لهلاكنا؟»
لطالما حذّر العديد من العلماء والمفكرين من مخاطر الذكاء الاصطناعي؛ فقد أشار ستيفن هوكينج، العالم الفيزيائي الشهير، إلى أن «تطوير الذكاء الاصطناعي الكامل قد يكون نهاية الجنس البشري»، محذرًا من أن الآلات قد تتطور بسرعة تفوق قدرة البشر على مواكبتها، مما يهدد بحدوث كارثة.
كما أعرب إيلون ماسك، الرئيس التنفيذي لشركة «تسلا»، عن قلقه في مؤتمر عام 2023، قائلًا: «نحن نلعب بالنار، ونحتاج إلى تنظيمٍ صارم لتطوير الذكاء الاصطناعي قبل فوات الأوان». وأيده ستيف وزنياك، المؤسس المشارك لشركة «آبل»، قائلًا: «قد يكون الذكاء الاصطناعي أعظم اختراع في التاريخ، لكنه قد يكون أيضًا آخر اختراع للبشرية».
وفي خضم السباق العالمي المحموم نحو تطوير تقنيات الذكاء الاصطناعي في عام 2024، نواجه معضلةً أخلاقيةً وإنسانيةً بالغة.
فبينما نشهد تطوراتٍ مذهلة في مجالاتٍ مثل الطب والتعليم والخدمات، تزداد المخاوف بشأن استخدام هذه التقنيات في المجال العسكري وصناعة الأسلحة الذكية. فالمخاوف لا تقتصر فقط على تصرف الآلات بشكلٍ مستقل، بل تشمل أيضًا إمكانية استغلال الإنسان لهذه التقنيات في تدمير الآخرين.
فهل كان عام 2024 شاهدًا على تحقق هذه المخاوف؟
في أغسطس 2018، اجتمع فريق الخبراء الحكوميين المعني باتفاقية الأسلحة التقليدية في جنيف لمناقشة القضايا المتعلقة بأنظمة الأسلحة ذاتية التشغيل بالكامل. تناول الاجتماع نقاشاتٍ مكثفة حول المخاطر الإنسانية والأخلاقية التي تثيرها هذه التقنيات، بالإضافة إلى التحديات الأمنية المرتبطة بها.
حيث أعربت غالبية الدول المشاركة عن دعمها لضرورة الحفاظ على السيطرة البشرية في استخدام القوة، وأكدت أهمية وضع إطارٍ قانوني دولي ينظم استخدام هذه الأسلحة.
دعت 26 دولة، من بينها النمسا والبرازيل ومصر، إلى فرض حظرٍ شامل على تطوير واستخدام الأسلحة ذاتية التشغيل بالكامل. كما قدمت الصين اقتراحًا يدعو إلى وضع بروتوكولٍ جديد ضمن اتفاقية الأسلحة التقليدية لحظر استخدام هذه الأنظمة.
في المقابل، أبدت بعض الدول اعتراضها على فرض حظرٍ قانوني ملزم، بحجة أن هذه التقنيات توفر مزايا استراتيجيةً هامة. شملت الدول المعترضة: فرنسا، وإسرائيل، وروسيا، وكوريا الجنوبية، والولايات المتحدة، والمملكة المتحدة، التي تواصل تطوير هذه الأنظمة وترى أن الحظر قد يحد من تقدمها التكنولوجي ومكانتها العسكرية على الساحة الدولية.
فهل كان اعتراض إسرائيل في ذلك الاجتماع تمهيدًا لاستخدام تلك التكنولوجيا في حربها ضد غزة عام 2024؟
في عام 2019، أنشأت إسرائيل وحدة استخبارات عسكرية سرية تُعرف بـ«الوحدة 8200». تأسست تلك الوحدة كجزء من مديرية الاستخبارات العسكرية، بهدف معالجة نقص الأهداف الذي عانت منه إسرائيل في الحروب السابقة.
تتألف الوحدة من مئات الضباط والخبراء التقنيين الذين يعملون على تطوير تقنيات الذكاء الاصطناعي وتطبيقها في العمليات العسكرية.
مهام الوحدة:
إلى جانب دورها في إدارة الأنظمة، كانت الوحدة مسؤولة عن ابتكار استراتيجيات جديدة لتحسين كفاءة العمليات. على سبيل المثال، اعتمدت الوحدة على نظام «عمود النار»، وهو تطبيق ذكي يُستخدم لتوصيل توصيات الاستهداف إلى قادة العمليات العسكرية في الوقت الفعلي.
والآن، ما هي الأنظمة التي طورتها تلك الوحدة لاستخدامها لاحقًا في الحرب الأخيرة على غزة عام 2023؟
منذ 7 أكتوبر/تشرين الأول 2023، وسّع الجيش الإسرائيلي استخدام الطائرات المسيرة (الدرونز) في قطاع غزة، حيث تم تحويلها من أدوات للتصوير والمراقبة إلى أسلحة فتاكة تُستخدم في عمليات القتل الميداني.
هذه الطائرات، التي تُعرف باسم «كواد كابتر»، أصبحت تُستخدم بشكلٍ واسع في استهداف الفلسطينيين مباشرةً بالرصاص الحي والقنابل المتفجرة. تعمل هذه الطائرات المسيرة كجنودٍ آليين يتم التحكم فيها عن بُعد، حيث تُستخدم لملاحقة الفلسطينيين، وإصدار أوامر لهم، وحتى إطلاق النار عليهم بأسلوب يشبه القنص والإعدام الميداني.
وتتميز «كواد كابتر» بصغر حجمها وقدرتها على التنفيذ الإلكتروني عن بُعد، مما يجعلها أداة فعالة في العمليات الاستخباراتية والعسكرية.
الجانب الاستخباري:
الجانب العسكري:
شهادات فلسطينية:
أفاد عدد من الفلسطينيين بأن طائرات «كواد كابتر» ألقت قنابل بأنواعٍ مختلفة على الشوارع والمنازل خلال العمليات العسكرية في شمال غزة.
كما استخدم الجيش الإسرائيلي هذه الطائرات، المزودة بمكبرات صوت، لتوجيه أوامر وإنذارات للفلسطينيين بإخلاء المنازل ومراكز الإيواء في مناطق مثل جباليا.
يعد نظام «حبسورة» من أبرز أنظمة الذكاء الاصطناعي التي استخدمتها إسرائيل في تحديد الأهداف العسكرية. يتمثل دور هذا النظام في تحليل كميات هائلة من البيانات، بما في ذلك صور الأقمار الصناعية، والمراقبة الجوية، والمعلومات الاستخباراتية الميدانية، لتحديد الأهداف المحتملة بدقةٍ عالية.
وظائف النظام:
وفقًا لتصريحات الجنرال الإسرائيلي السابق أفيف كوخافي، كان «حبسورة» قادرًا على إنتاج ما يصل إلى 100 هدفٍ يوميًا، مقارنةً بـ50 هدفًا سنويًا في الماضي عندما كانت العملية تعتمد على البشر فقط.
ووفقًا لتقريرٍ نشره الموقع الإسرائيلي (+972Magazine)، فإن هذا النظام يساعد القوات الإسرائيلية على تحديد من يجب استهدافه، مع تدخل بشري ضئيل للغاية في عملية اتخاذ القرار.
وفقًا لصحيفة الغارديان، فإنه منذ اختفاء كبار قادة حماس، سمحت أنظمة مثل «حبسورة» للجيش الإسرائيلي بتحديد مواقع ومهاجمة نشطاء أصغر سنًا من حماس، بما في ذلك استهداف منازلهم.
وصف أبراهام، من مجلة (+972)، بأن هذا النظام يتيح إمكانية إسقاط قنبلةٍ تزن 2000 رطلٍ على منزل بشكلٍ منهجي، ما يقتل الشخص المستهدف وكل من حوله.
كيف أثر نظام الذكاء الاصطناعي «حبسورة» على المدنيين؟
تم تصميم نظام «لافندر» لاستهداف الأفراد بناءً على تحليل أنماط حياتهم واتصالاتهم. يعتمد هذا النظام على قاعدة بياناتٍ ضخمة تضم معلوماتٍ عن سكان غزة، حيث يقوم بتقييم مدى ارتباط كل فرد بالجناح العسكري لحماس أو الجهاد الإسلامي.
آلية العمل:
خلال الأسابيع الأولى من حرب غزة، حدد نظام «لاڨندر» نحو 37 ألف فلسطيني كمسلحين مشتبه بهم، استنادًا إلى تحليل بياناتٍ جمعها عن سكان غزة البالغ عددهم 2.3 مليون نسمة.
حيث تم تصنيف الأشخاص بناءً على احتمالية أن يكونوا أعضاء في حماس أو الجهاد الإسلامي، باستخدام مؤشرٍ من 1 إلى 100. إذا اعتبر «لاڨندر» شخصًا ما مسلحًا في حماس، كان يتم استهدافه بالقصف دون التحقق من صحة البيانات أو فحصها بشكلٍ مستقل.
النظام كان يخطئ أحيانًا في تحديد الأهداف، خاصة إذا كانت أنماط الاتصال تتشابه مع عناصر حماس أو الجهاد الإسلامي، مما أدى إلى استهداف مدنيين عن طريق الخطأ، مثل رجال الشرطة أو أقارب المسلحين، أو حتى الأشخاص الذين استخدموا أجهزة تخص عناصر من حماس.
ماذا قالوا عن لافندر؟
نقلت صحيفة «الغارديان» عن أحد المصادر في الجيش الإسرائيلي قوله عن نظام «لافندر»:
«سأستثمر 20 ثانية لكل هدف في هذه المرحلة، وأقوم بالعشرات منها كل يوم. لم يكن لدي أي قيمة مضافة كإنسان، باستثناء كوني ختم الموافقة، لقد وفر الكثير من الوقت».
هذا النظام مخصص لتعقب الأفراد المستهدفين عند دخولهم منازلهم العائلية، حيث يعتبر أن احتمالية استهدافهم في منازلهم أعلى من المواقع العسكرية.
يعمل النظام على تتبع آلاف الأفراد في الوقت الفعلي، ويرسل تنبيهاتٍ تلقائية عندما يدخل المستهدفون منازلهم، ليتم قصفها مباشرة.
النتائج:
يُستخدم هذا النظام لتنسيق الهجمات الجوية من خلال حساب أحمال الذخيرة، وتحديد أولويات الأهداف، ووضع جداول زمنية للهجمات.
ساعد النظام في تقليل وقت التخطيط من ساعاتٍ إلى دقائق، مما زاد من سرعة تنفيذ العمليات العسكرية.
في خضم التطورات التكنولوجية المذهلة التي يشهدها العالم، يبرز الذكاء الاصطناعي كأحد أعظم الاختراعات البشرية، لكنه يحمل في طياته مخاطر جسيمة إذا تم استخدامه بشكلٍ غير أخلاقي.
قصة العالِم «جيفري» التي بدأنا بها المقال تعكس هذا التناقض: فبينما يمكن للذكاء الاصطناعي أن يكون أداةً للتقدم والازدهار، فإنه قد يتحول إلى سلاحٍ فتاك يهدد البشرية إذا تم تسخيره لأغراضٍ تدميرية.
في الحرب الإسرائيلية على غزة، أصبح الذكاء الاصطناعي أداةً رئيسية في تحديد الأهداف وتنفيذ العمليات العسكرية، مما أدى إلى زيادة كبيرة في الضحايا المدنيين وتدمير البنى التحتية الحيوية.
إن أنظمة مثل «حبسورة» و«لافندر» و«كواد كابتر» تُستخدم لاستهداف الأفراد والمباني بسرعةٍ ودقةٍ غير مسبوقة، لكنها تفتقر إلى الحس الإنساني الذي يميز بين المقاتلين والمدنيين، مما جعل النتائج مأساوية: آلاف القتلى، وتشريد عائلاتٍ بأكملها.
التداعيات الأخلاقية والقانونية لاستخدام الذكاء الاصطناعي في الحروب تثير تساؤلاتٍ كبيرة: كيف يمكن تفويض قرارات الحياة والموت لخوارزمياتٍ لا تمتلك ضميرًا أو إحساسًا بالعدالة؟ وكيف يمكن ضمان مساءلة من يستخدم هذه التكنولوجيا في انتهاك حقوق الإنسان؟
في النهاية، يجب أن ندرك أن التكنولوجيا ليست شرًا في حد ذاتها، بل يعتمد الأمر على كيفية استخدامها.
الذكاء الاصطناعي يمكن أن يكون قوةً للخير إذا تم توظيفه لخدمة الإنسانية، لكنه قد يصبح أداةً للدمار إذا تم استغلاله في الحروب والصراعات. وعلى المجتمع الدولي أن يعمل على وضع إطارٍ أخلاقي وقانوني صارم لتنظيم استخدام الذكاء الاصطناعي، لضمان ألا تتحول هذه التكنولوجيا إلى سلاحٍ يهدد مستقبل البشرية.
# غزة # الذكاء الاصطناعي # إسرائيل # طوفان الأقصى # حرب غزة # منحة أبو الغيط للكتاب 2025