أنقرة / إرمق آقجان، زينب قطرة أوران / الأناضول
** خبيرة حوكمة الذكاء الاصطناعي في معهد ستوكهولم الدولي لأبحاث السلام لورا برون:
- إدماج الذكاء الاصطناعي في ساحات القتال غيّر طبيعة الحروب بشكل كبير من حيث السرعة وحجم العمليات
- الخدمات التي تقدمها شركات مثل "بالانتير" تساهم في طمس الحدود بين الاستخدام المدني والعسكري للتكنولوجيا
- استخدام هذه التقنيات في المراقبة الجماعية يثير مخاطر جدية تتعلق بحقوق الإنسان والخصوصية
- لا يوجد تصور واضح لكيفية استخدام الدول للذكاء الاصطناعي بطريقة قانونية ومسؤولة في الحروب
تواصل شركة "بالانتير" الأمريكية توسيع حضورها داخل قطاع الصناعات الدفاعية، وسط ازدياد الانتقادات لاستخدام تقنياتها في العمليات العسكرية الإسرائيلية، خصوصا في قطاع غزة ولبنان وإيران.
و"بالانتير" (Palantir) هي شركة برمجيات متخصصة في تحليل البيانات والذكاء الاصطناعي، أسست عام 2003، وتعمل بشكل وثيق مع الحكومات ووكالات الاستخبارات والشركات التجارية الكبرى.
في ما اعتبرت خبيرة دولية في حديث للأناضول، أن إدماج الذكاء الاصطناعي في ساحات القتال غيّر طبيعة الحروب بشكل كبير، وساهم في طمس الحدود بين الاستخدامات المدنية والعسكرية للتكنولوجيا.
وتشير تقارير إعلامية وتقييمات حقوقية إلى أن التكنولوجيا التي تطورها "بالانتير" استُخدمت في عمليات تحديد الأهداف وتحليل البيانات خلال حرب الإبادة التي شنتها إسرائيل على قطاع غزة، إلى جانب استخدامها في هجمات مرتبطة بإيران ولبنان.
وفي يناير/ كانون الثاني 2024، أعلنت الشركة توسيع تعاونها مع إسرائيل عبر تقديم دعم تقني لجيشها قائم على الذكاء الاصطناعي، يركز على تحليل البيانات وتحديد الأهداف في العمليات العسكرية.
** توسع في صناعات الدفاع
وتعزز "بالانتير" حضورها في الصناعات العسكرية عبر دمج تقنيات الذكاء الاصطناعي مع الأنظمة الدفاعية والاستخبارية، مستفيدة من عقود كبيرة مع المؤسسات الأمنية والعسكرية الأمريكية.
وتوفر أنظمة مثل "غوثام"، ومنصة الذكاء الاصطناعي "إيه آي بي"، و"فاوندري"، و"سكاي كيت"، وهي أنظمة قادرة على دمج مجموعات ضخمة من البيانات وتحليلها، وربط نماذج الذكاء الاصطناعي بالأنظمة العملياتية والعسكرية، إضافة إلى جمع ومعالجة البيانات ميدانيا عبر منصات متنقلة.
وفي عام 2025، وقعت الشركة اتفاقية بقيمة 10 مليارات دولار مع الجيش الأمريكي، فضلًا عن كونها شريكا رئيسيا في برنامج "مافن" التابع لوزارة الدفاع "بنتاغون"، والذي يعتمد على الذكاء الاصطناعي في عمليات تحديد الأهداف وتحليل الصور والبيانات العسكرية.
وتشارك "بالانتير" أيضا في تطوير برنامج "تايتان"، الذي يهدف إلى إنشاء محطات استخبارات برية متقدمة تعتمد على الذكاء الاصطناعي، بينما تستخدم منصة "آرمي فانتدج" منذ عام 2018، لتسريع عمليات اتخاذ القرار داخل الجيش الأمريكي اعتمادا على تحليل البيانات.
** شراكة مع الجيش الإسرائيلي
وفي يناير 2024، التقى المؤسسان المشاركان للشركة أليكس كارب، وبيتر ثيل، الرئيس الإسرائيلي إسحاق هرتسوغ ومسؤولين بوزارة الدفاع في تل أبيب.
وحينها، أعلنت الشركة التوصل إلى تفاهم بشأن شراكة استراتيجية مع الجيش الإسرائيلي، تشمل تقديم تقنيات تعتمد على الذكاء الاصطناعي لاستخدامها في "المهام المرتبطة بالحرب"، دون الكشف عن تفاصيل إضافية بخصوص طبيعة الخدمات المقدمة.
وقال كارب خلال وجوده في تل أبيب إن الطلب الإسرائيلي على خدمات الشركة ازداد بشكل ملحوظ، مضيفًا أن "بالانتير" بدأت تقديم منتجات مختلفة عما كانت توفره لإسرائيل قبل 7 أكتوبر/ تشرين الأول 2023.
وفي بيان عام 2024، قالت منظمة "مركز الأعمال وحقوق الإنسان"، إن الدعم التكنولوجي الذي توفره "بالانتير" للجيش الإسرائيلي يتم استخدامه بشكل مباشر في العمليات العسكرية بغزة.
في المقابل، رفضت الشركة هذه الاتهامات، مؤكدة أن تعاونها مع إسرائيل بدأ قبل أحداث 7 أكتوبر، وأنه يندرج ضمن الدعم الذي تقدمه لحلفاء الولايات المتحدة بالعالم.
** تقنيات استخدمت في لبنان وإيران وفنزويلا
ووفقًا لكتاب "الفيلسوف في الوادي: أليكس كارب، بالانتير وصعود دولة المراقبة"، للكاتب مايكل شتاينبرغر، فإن إسرائيل استعانت بتقنيات الشركة الأمريكية خلال استهداف قادة في "حزب الله" بلبنان عام 2024.
وأشار الكتاب إلى استخدام تقنيات الشركة أيضا في "عملية البيجر" التي فجرت فيها إسرائيل أجهزة اتصالات لدى عناصر "حزب الله".
وذكرت صحيفة "واشنطن بوست" الأمريكية أن البنتاغون استعان خلال التخطيط لهجمات على إيران، بنظام "مافن" الذكي المطور من "بالانتير"، فيما أشارت تقارير إعلامية إلى استخدام النظام تقنيات الذكاء الاصطناعي لتحديد أهداف محتملة داخل إيران وتعيين مواقعها بدقة.
ولفتت التقارير إلى استخدام نظام "مافن" في الهجوم الذي نفذه الجيش الأمريكي في فنزويلا في يناير الماضي، وأسفر عن قتلى واعتقال الرئيس نيكولاس مادورو، وزوجته واقتيادهما إلى الولايات المتحدة.
** تحويل الذكاء الاصطناعي إلى سلاح
وفي أبريل/ نيسان 2025، قالت المهندسة المغربية ابتهال أبو السعد، التي احتجت على تعاون "مايكروسوفت"، التي تعمل لديها، مع إسرائيل خلال فعالية الذكرى الخمسين لتأسيس الشركة، إن أنظمة تحليل البيانات التي تطورها "بالانتير" تؤدي دورا محوريا في العمليات العسكرية الإسرائيلية.
وأوضحت في تصريح للأناضول، أن الشركة تجمع بيانات من منصات متعددة وتستخدمها ضمن عمليات تحديد الأهداف.
وأضافت: "بالانتير تحول الذكاء الاصطناعي إلى سلاح، وتستخدم تحليل البيانات لاتخاذ قرارات قاتلة".
وأشارت إلى أن التكنولوجيا نفسها يجري استخدامها في غزة عبر تحليل بيانات مستمدة من تطبيقات التواصل والمحادثات الهاتفية ومعلومات المواقع الجغرافية الخاصة بالفلسطينيين، ثم دمجها بأنظمة الطائرات المسيّرة لتحديد الأهداف.
ولفتت إلى أن الاعتماد على هذه الأنظمة قد يسمح للمسؤولين العسكريين بالتنصل من المسؤولية القانونية عبر إلقاء اللوم على التكنولوجيا، معتبرة أن "بالانتير" تمثل "درعا" يحمي الولايات المتحدة وإسرائيل من المساءلة القانونية.
وذكرت أن البنية التكنولوجية التي توفرها الشركة تُستخدم أيضا ضمن أنظمة إسرائيلية مثل "لافندر"، و"ويرز دادي"، التي تعتمد في تحديد الأهداف داخل غزة على الذكاء الاصطناعي وتحليل البيانات.
وأضافت: "أتردد حتى في وصف هذه الأنظمة بأنها مجرد برمجيات، لأنها صُممت بوضوح للمراقبة والحرب والقتل".
**الذكاء الاصطناعي يغير طبيعة الحروب
من جهتها، قالت خبيرة حوكمة الذكاء الاصطناعي في معهد ستوكهولم الدولي لأبحاث السلام لورا برون، إن إدماج الذكاء الاصطناعي في ساحات القتال غيّر طبيعة الحروب بشكل كبير من حيث السرعة وحجم العمليات، خصوصا في ما يتعلق بتحديد الأهداف.
وأوضحت أن استخدام هذه التقنيات في المراقبة الجماعية يثير مخاطر جدية تتعلق بحقوق الإنسان والخصوصية، مضيفة أن الخدمات التي تقدمها شركات مثل "بالانتير" تساهم في طمس الحدود بين الاستخدامات المدنية والعسكرية للتكنولوجيا.
وأكدت أن الأبحاث الحالية تشير إلى أن دمج الذكاء الاصطناعي في العمليات العسكرية قد يزيد من احتمالات الخطأ والمخاطر مقارنة بالأنظمة التقليدية.
وفي ما يتعلق بالمسؤولية القانونية، شددت برون على أن الدول تبقى مسؤولة عن الأخطاء الناتجة عن استخدام أنظمة الذكاء الاصطناعي في الحروب، خصوصا إذا لم تتخذ الإجراءات الكافية لمنع حدوث تلك الأخطاء.
وأضافت أن تحديد ما إذا كانت المشكلات في ساحات القتال ناتجة عن الذكاء الاصطناعي أم عن عوامل بشرية لا يزال أمرا بالغ الصعوبة بسبب الطبيعة المعقدة لهذه الأنظمة.
وختمت حديثها بالقول: "حتى الآن، لا يوجد تصور عملي واضح بالكامل بشأن كيفية استخدام الدول للذكاء الاصطناعي بطريقة قانونية ومسؤولة في الحروب".