في حرب لم تعد تخاض بالسلاح وحده، تحوّلت غزة إلى ساحة اختبار لتقنيات الذكاء الاصطناعي وتحليل البيانات، حيث تتقاطع العمليات العسكرية مع أدوات رقمية متطورة تقف خلف الكواليس. وفي قلب هذا الجدل برز اسم شركة 'بالانتير تكنولوجيز'، التي وجدت نفسها محور نقاش دولي واسع بشأن دور التكنولوجيا في دعم العمليات العسكرية الإسرائيلية. وبين تصريحات المتحدثين العسكريين، وعلى رأسهم كابتن إيلا، وما تنشره صحف أجنبية أبرزهم التايم والجارديان البريطانية يتصاعد الجدل حول ما إذا كانت أدوات الذكاء الاصطناعي تمثل مجرد وسائل دعم تقني، أم أنها أصبحت عنصرًا فاعلًا في معادلة الحرب، بما يحمله ذلك من أبعاد قانونية وأخلاقية تتجاوز حدود الميدان.
دعم الأمن القومي
وبينما ترى الشركة أن عملها يندرج في إطار دعم الأمن القومي لعملائها، تعتبر منظمات حقوقية أن أدوات تحليل البيانات المتقدمة قد تلعب دورًا حاسمًا في آليات الاستهداف خلال النزاعات المسلحة، ما يثير أسئلة أخلاقية وقانونية عميقة.تأسست Palantir عام 2003 في الولايات المتحدة على يد مجموعة من رواد الأعمال، من بينهم Peter Thiel، وركزت منذ بدايتها على تطوير برمجيات قادرة على دمج وتحليل كميات ضخمة من البيانات المعقدة. وتطورت منتجاتها الرئيسية، مثل منصة “Gotham” المخصصة للعمل الأمني والاستخباراتي، ومنصة “Foundry” الموجهة للقطاعين الحكومي والخاص، لتصبح أدوات معتمدة لدى وكالات إنفاذ القانون ووزارات الدفاع في عدة دول.

كابتن إيلا تكذب الحقائق والصحف الأجنبية تؤكدها
لا يدور الجدل فقط حول الأداء العسكري على الأرض، بل حول البنية التكنولوجية التي تقف خلفه. فالنقاش المتصاعد في الصحف الأجنبية بشأن دور ' بلانتير' يعكس تحولًا أعمق في طبيعة الحروب الحديثة، وهو ما يجعل أي حديث عن “تفوق تقني” أو “دقة في الاستهداف” مرتبطًا مباشرة بالسؤال عن كيفية توظيف أدوات الذكاء الاصطناعي في ساحة قتال مكتظة مثل غزة.
كما أن الإشارة إلى دعم الأمن القومي، التي تتبناها الشركة في دفاعها عن أنشطتها، تتقاطع مع ما طرحته 'كابتن إيلا' حول شرعية العمليات وأهدافها.
غير أن تقارير الصحف الأجنبية تبرز وجهة نظر مختلفة، إذ تركز على المخاوف الحقوقية المرتبطة بإمكانية استخدام أنظمة تحليل البيانات في بناء “بنوك أهداف”، وهو ما يضع التكنولوجيا نفسها تحت مجهر المساءلة الأخلاقية.
وفي ضوء ارتفاع أعداد الضحايا المدنيين، يصبح الجدل أكثر حساسية، خاصة مع تحذيرات منظمات حقوق الإنسان من الاعتماد المفرط على الأنظمة الخوارزمية في اتخاذ قرارات قد تكون لها تبعات إنسانية جسيمة.
هنا يبرز التساؤل الذي يتجاوز التصريحات السياسية أو العسكرية هل تظل التكنولوجيا أداة محايدة، أم أنها تصبح جزءًا من معادلة المسؤولية عندما تُستخدم في نزاع مسلح؟
وتُعرف كابتن إيلا بأنها إحدى المتحدثات باسم الجيش الإسرائيلي، وظهرت في عدد من الإحاطات الإعلامية والمقابلات خلال الحرب في غزة، حيث تتولى شرح المواقف العسكرية الإسرائيلية والرد على الانتقادات الدولية. ويأتي دورها ضمن وحدة المتحدث باسم الجيش، التي تعمل على تقديم الرواية الرسمية للمؤسسة العسكرية لوسائل الإعلام المحلية والدولية، خصوصًا في أوقات التصعيد.
وبرز اسمها بشكل أكبر بعد تصريحات أثارت جدلًا واسعًا، خاصة ما يتعلق بوصف الصراع وتوصيف مسلسل “أصحاب الأرض”، وهو ما دفع إلى تفاعل كبير عبر منصات التواصل ووسائل الإعلام. ويعكس ظهورها المتكرر توجه الجيش الإسرائيلي للاعتماد على متحدثين ميدانيين وشخصيات عسكرية شابة للتواصل المباشر مع الجمهور العالمي، في إطار معركة الرواية الإعلامية المصاحبة للعمليات العسكرية.
كيف يعمل الذكاء الاصطناعي في حرب غزة؟
وتعتمد فلسفة الشركة على تمكين المؤسسات من اتخاذ قرارات سريعة قائمة على تحليل شامل للبيانات المتاحة، سواء كانت بيانات استخباراتية أو لوجستية أو تشغيلية.
مع اندلاع الحرب في غزة، بدأت وسائل إعلام غربية، بينها تقارير لصحف أميركية وأوروبية كبرى، في تسليط الضوء على الشراكات بين Palantir ووزارة الدفاع الإسرائيلية. وذكرت تقارير أجنبية أن الشركة وقعت اتفاقيات تعاون لتعزيز قدرات تحليل البيانات لدى الجيش الإسرائيلي، بما في ذلك استخدام أدوات ذكاء اصطناعي لدعم عمليات اتخاذ القرار.
وأشارت بعض هذه التقارير إلى أن التعاون تسارع بعد بدء الحرب، في ظل حاجة إسرائيل إلى تقنيات متقدمة لتحليل كميات هائلة من البيانات الاستخباراتية في وقت قصير.
ارتفاع عدد الضحايا في غزة
الجدل تصاعد عندما ربطت منظمات حقوقية بين أدوات الذكاء الاصطناعي المستخدمة في النزاع وبين ارتفاع أعداد الضحايا المدنيين في غزة. ورغم عدم وجود أدلة علنية تفصيلية تكشف آلية استخدام برامج Palantir تحديدًا في كل عملية، فإن تقارير حقوقية حذرت من أن أنظمة التحليل الخوارزمي قد تُستخدم في تحديد “بنوك أهداف” استنادًا إلى أنماط بيانات واتصالات وتحركات. وتثير هذه الاحتمالات مخاوف من الاعتماد المفرط على الخوارزميات في قرارات قد تكون لها تبعات إنسانية خطيرة.
صناديق استثمارية كبرى تدعم الشركة
بعض التحقيقات الصحفية الأجنبية تناولت كذلك البعد الاستثماري والأخلاقي للقضية، فقد أشارت تقارير إلى أن صناديق استثمار أوروبية أعادت تقييم استثماراتها في شركات تكنولوجيا دفاعية، ومن بينها Palantir، بسبب مخاوف تتعلق بالامتثال للقانون الدولي الإنساني.
وفي حالات محددة، ذكرت وسائل إعلام أن مستثمرين في شمال أوروبا قرروا سحب استثماراتهم أو إدراج الشركة على قوائم المراقبة الأخلاقية، إلى حين اتضاح طبيعة استخدام تقنياتها في النزاع.
في المقابل، تؤكد Palantir في بياناتها العلنية أنها توفر أدوات تحليل بيانات عامة، وأن مسؤولية الاستخدام تقع على عاتق الجهة المتعاقدة. وتشدد الشركة على أن تقنياتها مصممة لدعم اتخاذ القرار البشري، لا لاستبداله، وأنها تلتزم بالقوانين والأنظمة المعمول بها في الولايات المتحدة وإسرائيل التي تعمل فيها، وأن الأوامر يتم وضعها منهم.
دور التكنولوجيا في الحروب
لكن النقاش لا يقف عند حدود المسؤولية القانونية فقط، بل يمتد إلى سؤال أوسع حول دور شركات التكنولوجيا في النزاعات المسلحة الحديثة. فمع تسارع تطور تقنيات الذكاء الاصطناعي، أصبحت أدوات تحليل البيانات والتعرف على الأنماط جزءًا لا يتجزأ من العمليات العسكرية في عدة دول، وليس في إسرائيل وحدها. ويشير خبراء إلى أن هذا الاتجاه يعكس تحوّلًا عالميًا نحو “حروب مدفوعة بالبيانات”، حيث تصبح الخوارزميات عنصرًا أساسيًا في رسم صورة ساحة المعركة.
في السياق ذاته، تبرز مخاوف من غياب الشفافية الكافية حول كيفية عمل هذه الأنظمة، خاصة عندما تتعلق بعمليات عسكرية سرية. فالشركات عادة ما تعتبر خوارزمياتها ملكية فكرية محمية، بينما ترفض الجيوش الإفصاح عن تفاصيل عملياتها لأسباب أمنية. هذا التداخل بين السرية التجارية والسرية العسكرية يجعل من الصعب على الصحافة أو منظمات المجتمع المدني التحقق من طبيعة الدور الفعلي الذي تلعبه أدوات معينة في ساحة القتال.
القانون الدولي بشأن استخدام الـ AI
كما يثير استخدام الذكاء الاصطناعي في النزاعات أسئلة قانونية تتعلق بالقانون الدولي الإنساني، الذي يفرض مبادئ التمييز والتناسب والضرورة العسكرية. ويتساءل قانونيون في صحيفة الجارديان البريطانية عما إذا كانت الأنظمة الخوارزمية قادرة فعلًا على مراعاة هذه المبادئ المعقدة في بيئات مكتظة بالسكان مثل غزة، أو ما إذا كان الاعتماد عليها قد يزيد من مخاطر الأخطاء. في المقابل، يرى آخرون أن استخدام التحليل المتقدم قد يساهم في تقليل الخسائر عبر تحسين دقة الاستهداف مقارنة بالوسائل التقليدية.