التخطي إلى المحتوى

«باب الذكاء الاصطناعي».. حين تقرر الخوارزمية من يعيش ومن يموت! – أخبار السعودية

في الثامن والعشرين من فبراير الماضي، قبل أن يسمع أحد بالحرب، كانت الخوارزميات تعمل. فالضربة الأولى لم تكن صاروخاً، كانت بيانات. ملايين الصور الفضائية وشبكات اتصال وأنماط حركة بشر، تُحلَّل في أجزاء من الثانية. النتيجة: أكثر من 1000 هدف في الساعات الأربع والعشرين الأولى وحدها.

لم يكن ذلك قرار جنرال. كان مخرج خوارزمية لا تتعب، ولا تتردد، ولا تشعر بشيء إطلاقاً!«باب الذكاء الاصطناعي».. حين تقرر الخوارزمية من يعيش ومن يموت!

* ما الذي تغيّر؟

الجيوش التقليدية كانت تعمل عبر جندي يرصد، ضابط يتلقى المعلومة ويوصي، قائد يأمر بالتنفيذ.

كل خطوة فيها إنسان يفكر ويتحمل مسؤوليته الإنسانية والأخلاقية ربما.

الذكاء الاصطناعي في شِقِّهِ العسكري غيّر هذه المعادلة. اليوم نظام رقمي يرصد ألف هدف، يحللها، يصنّفها، ويقترح متى وكيف تُضرب وفي دقائق معدودة.

الإنسان هنا أصبح مجرد توقيع أخير على قرار اتخذته الآلة بالفعل.

يبدو هذا تقنياً آلياً. لكنه في جوهره سؤال إنساني لم تواجهه البشرية من قبل على هذا النحو وبتلك السرعة: حين تُخطئ الآلة وتقتل أبرياء، من يتحمل المسؤولية؟«باب الذكاء الاصطناعي».. حين تقرر الخوارزمية من يعيش ومن يموت!

* الاغتيال بالخوارزمية

رافقتُ كل تحول تقني كبير في العقود الماضية. لكن ما رأيته يتشكّل في السنوات الأخيرة وفي منطقتنا تجاوز كل ما توقعته.

إسرائيل أمضت سنوات في اختراق كاميرات المرور وشبكات الهواتف في إيران، ولبنان وجمعت مليارات نقاط البيانات. الذكاء الاصطناعي حلّل هذه البيانات لرسم «أنماط حياة» المرشد الإيراني المغتال علي خامنئي، حركاته، مواعيده، دائرته الأمنية الداخلية. النتيجة كانت عملية اغتيال دقيقة لرجل يُعدّ (افتراضاً) من أكثر المحميين في العالم مع أبرز قياداته، فيما عملية الاصطياد مستمرة.

«باب الذكاء الاصطناعي».. حين تقرر الخوارزمية من يعيش ومن يموت!

* خيال علمي يفجّر!

في سبتمبر 2024، فجّرت إسرائيل آلاف أجهزة النداء الآلي «البيجر» التي يستخدمها عناصر حزب الله في لبنان وسورية في وقت واحد، ما أسفر عن عشرات القتلى وأكثر من 3000 جريح. لم يكن ذلك قنبلة أو صاروخاً، كان جهاز اتصال عادياً تحوّل إلى سلاح بعد أن تسللت إليه يد رقمية غير مرئية.

تبع ذلك اغتيال الأمين العام لحزب الله حسن نصرالله، ثم خلفه هاشم صفي الدين، ثم كبار قادة الجناح العسكري إبراهيم عقيل وعلي كركي ومحمد سرور. قيادة بأكملها مُحيت تماماً في أشهر معدودة، بدقة لم يعرفها أي جيش في التاريخ.

الذكاء الاصطناعي لم يُطلق النار. لكنه حدّد من يُستهدف، ومتى، وأين.

* إيران.. الاختبار الأكبر

الحملة الأمريكية الإسرائيلية على إيران تمثّل أول نشر واسع النطاق لأنظمة استهداف بالذكاء الاصطناعي التوليدي ضد دولة ذات سيادة، ميدان اختبار حقيقي للحرب الخوارزمية.

الجيش الأمريكي أكد رسمياً توظيف أدوات ذكاء اصطناعي متقدمة تحوّل عمليات كانت تستغرق أياماً إلى ثوانٍ، مع تأكيد أن البشر يتخذون القرارات النهائية.

لكن أيضاً، وفي اليوم الأول ذاته، استُهدفت مدرسة ابتدائية للبنات في جنوب إيران وقُتل 168 شخصاً معظمهم أطفال، والتحقيقات أشارت إلى معلومات استخباراتية قديمة وراء الخطأ.

الخوارزمية أخطأت. الأطفال دفعوا الثمن. ولم يعرف أحد بدقة أين انتهى قرار الإنسان وأين بدأ قرار الآلة.. ولا شعور هنا بالندم!

أمريكا أيضاً تمارس وتوظف هذا النهج مبكراً منذ سنوات. من اغتيال الجنرال الإيراني قاسم سليماني في بغداد عام 2020 بضربة صاروخية دقيقة، إلى استهداف قيادات المليشيات في العراق وسورية، كلها عمليات تعتمد على الذكاء الاصطناعي في جمع البيانات وتحليل الأنماط وتحديد اللحظة المثلى للضربة.

السلاح لم يتغير فقط، فقد تغيّرت فلسفة الحرب ذاتها.

* أوكرانيا.. المختبر!

الطائرات المسيّرة باتت تتسبب في 70 إلى 80% من الإصابات في ميادين القتال الأوكرانية. نظم الاستهداف بالذكاء الاصطناعي رفعت دقة الضربات من 30% إلى 80%.

المشهد المكرر أبلغ من أي شرح؛ شاب في قبو، أمامه لاب توب، يوجّه «درون» تزن كيلوغراماً، بتكلفة 400 دولار فقط، يضرب دبابة تساوي ملايين. إضافة نظام الاستهداف الذكي لهذه «الدرون» باتت تكلف 25 دولاراً فقط!

الحرب لم تعد حكراً على الجيوش الضخمة والدول الكبرى وحسب، في مطلع 2026، آلاف الروبوتات البرية تزحف عبر خطوط المواجهة في شرق أوكرانيا، بعضها لنقل الإمدادات، وبعضها مسلح ومستقل. أوكرانيا تواجه جيشاً أكبر منها بمرات، فاختارت أن تستبدل جزءاً من جنودها بآلات لا تتعب ولا تخاف.

روسيا في المقابل تعمّق تعاونها مع الصين في تطوير أنظمة ذكاء اصطناعي عسكرية، وتورد الصين نحو 80% من التقنيات الحيوية المستخدمة في الطائرات المسيّرة الروسية.

* تايوان.. الخوارزميات تستعد

الصين المتقدمة في الذكاء الاصطناعي بفارق كبير، رفعت ميزانيتها العسكرية 7% في 2026 مع تركيز معلن على الذكاء الاصطناعي العسكري وتقنيات «الحرب الذكية».

ما يجري في مضيق تايوان الآن، هذه اللحظة ليست حرباً بعد، لكنه تحضير دقيق لها. الجيش الصيني يريد من الذكاء الاصطناعي أن يعوّض غياب الخبرة القتالية الحقيقية، إذ لم تخض الصين حرباً فعلية منذ 1979.

الخطر ليس في الحرب وحدها، بل في الخطأ المحسوب. نظامان من الذكاء الاصطناعي يتواجهان في مضيق ضيق، قرار خاطئ من خوارزمية واحدة كافٍ لإشعال مواجهة لم يُرِدها أحد.

أيضاً، تايوان تنتج 90% من أكثر الرقائق الإلكترونية تقدماً في العالم، تلك التي يعمل بها الذكاء الاصطناعي ذاته. أي حرب هناك لن تكون إقليمية. ستوقف الاقتصاد الرقمي للبشرية كلها.

* «الشك» السلاح الأخطر!

مواقع في البحرين وقطر والكويت والسعودية والإمارات وعمان استُهدفت بصواريخ وطائرات مسيّرة إيرانية وغيرها. ومعها ظهرت فيديوهات مزيّفة بالذكاء الاصطناعي تُظهر دخاناً فوق أبراج ومدن وانتشرت قبل أي تحقق.

الناس شاهدوا مشاهد وصور «الدمار» قبل أن يعرفوا إنْ كان حقيقياً.

هنا يظهر السلاح الأخطر، إنه أيها السادة ليس الصاروخ، بل «الشك». حين لا تستطيع التمييز بين الحقيقي والمصنوع، تنهار المعنويات وربما القدرات على اتخاذ القرار. والحقيقة المؤكدة الآن أن المنطقة تحتاج اليوم منظومات دفاع معلوماتي لا تقل أهمية عن منظومات الدفاع الجوي.

* الرعب.. من يحاسب من؟!

السؤال الذي لا يملك أحد إجابته بعد.

الحروب القديمة كانت تستهلك الحديد والبارود. حروب اليوم تستهلك البيانات والخوارزميات.

والفارق الجوهري المرعب والرهيب هنا يتمثل في التالي؛ إذا كان القرار البشري يُعاد تقييمه، فان القرار الخاطئ للخوارزمية لا يُسترجع أبداً ولا يُحاسب!

الأمم المتحدة تعقد اجتماعات حول تنظيم الذكاء الاصطناعي في الحروب، لكن إطاراً دولياً ملزماً يبدو بعيداً، لأن كل دولة كبرى تريد أن تنتهي أولاً من بناء قدراتها قبل أن تقبل أي قيود.

نحن لا نشهد تطور الحرب. نحن نشهد إعادة تعريف المسؤولية الإنسانية في أخطر لحظاتها.

والسؤال المزلزل والمعلق، والذي أعتقد سيظل معلقاً طويلاً:

حين تقتل الخوارزمية، من يُحاسب من؟

من يدير الحرب اليوم، ليس الجنرالات وحدهم، وليس المحللون الإستراتيجيون.

من يدير الحرب اليوم هم مبرمجون في مكاتب هادئة، يكتبون كوداً لم يروا بسببه رصاصة واحدة. ومحللو بيانات يقرأون أنماطاً على شاشات، لا وجوهاً في الميدان. وشركات تقنية تبيع «حلولاً دفاعية» لا تعرف، ولا تريد أن تعرف، كيف تُستخدم بالضبط.

القرار العسكري انتقل جزئياً من غرف العمليات إلى غرف الخوارزميات. والخوارزمية لا تحمل رتبة عسكرية، ولا تَمثُل أمام محكمة، ولا تُفكّر في ما بعد الضربة.

هذا هو التحول الأكثر خطورة ورعباً!

إلى اللقاء،،«باب الذكاء الاصطناعي».. حين تقرر الخوارزمية من يعيش ومن يموت!

On February 28th, before anyone heard of the war, the algorithms were already at work. The first strike was not a missile; it was data. Millions of satellite images, communication networks, and patterns of human movement were analyzed in fractions of a second. The result: over 1000 targets in the first twenty-four hours alone.

This was not a general’s decision. It was the output of an algorithm that does not tire, does not hesitate, and feels nothing at all!«باب الذكاء الاصطناعي».. حين تقرر الخوارزمية من يعيش ومن يموت!

* What has changed?

Traditional armies operated through a soldier who observes, an officer who receives the information and recommends, and a commander who orders the execution.

Every step involved a human who thinks and bears the potential human and moral responsibility.

Military artificial intelligence has changed this equation. Today, a digital system identifies a thousand targets, analyzes them, classifies them, and suggests when and how to strike in just a few minutes.

Here, the human has become merely the final signature on a decision that the machine has already made.

This seems technical and mechanical. But at its core, it poses a human question that humanity has never faced in this way and at such speed: When the machine makes a mistake and kills innocents, who bears the responsibility?«باب الذكاء الاصطناعي».. حين تقرر الخوارزمية من يعيش ومن يموت!

* Assassination by Algorithm

I have witnessed every major technological shift in recent decades. But what I have seen take shape in recent years in our region has surpassed all my expectations.

Israel spent years infiltrating traffic cameras and phone networks in Iran and Lebanon, gathering billions of data points. Artificial intelligence analyzed this data to map the “lifestyle” of the assassinated Iranian leader Ali Khamenei, his movements, appointments, and internal security circle. The result was a precise assassination operation of a man considered (hypothetically) one of the most protected individuals in the world, while the hunting operation continues.

«باب الذكاء الاصطناعي».. حين تقرر الخوارزمية من يعيش ومن يموت!

* Sci-Fi Explodes!

In September 2024, Israel detonated thousands of beeper devices used by Hezbollah members in Lebanon and Syria simultaneously, resulting in dozens of deaths and over 3000 injuries. It was not a bomb or a missile; it was an ordinary communication device that turned into a weapon after an invisible digital hand infiltrated it.

This was followed by the assassination of Hezbollah’s Secretary-General Hassan Nasrallah, then his successor Hashem Safi al-Din, and then senior military wing leaders Ibrahim Aqil, Ali Karki, and Muhammad Sarour. An entire leadership was completely wiped out in just a few months, with a precision unmatched by any army in history.

Artificial intelligence did not pull the trigger. But it determined who to target, when, and where.

* Iran.. The Biggest Test

The American-Israeli campaign against Iran represents the first large-scale deployment of generative artificial intelligence targeting systems against a sovereign state, a real testing ground for algorithmic warfare.

The U.S. military officially confirmed the use of advanced artificial intelligence tools that transform operations that used to take days into seconds, while emphasizing that humans make the final decisions.

However, on the very first day, an elementary school for girls in southern Iran was targeted, resulting in the deaths of 168 people, mostly children, with investigations indicating outdated intelligence behind the error.

The algorithm made a mistake. The children paid the price. And no one knew precisely where the human decision ended and where the machine decision began… and there was no feeling of regret!

The U.S. has also been practicing and employing this approach for years. From the assassination of Iranian General Qassem Soleimani in Baghdad in 2020 with a precise missile strike, to targeting militia leaders in Iraq and Syria, all operations rely on artificial intelligence for data collection, pattern analysis, and determining the optimal moment for the strike.

The weapon has not only changed; the philosophy of war itself has changed.

* Ukraine.. The Laboratory!

Drones now account for 70 to 80% of casualties on the Ukrainian battlefields. AI targeting systems have raised strike accuracy from 30% to 80%.

The repeated scene speaks louder than any explanation; a young man in a basement, in front of him a laptop, directing a drone weighing one kilogram, costing only $400, striking a tank worth millions. Adding a smart targeting system to this drone now costs just $25!

War is no longer the exclusive domain of large armies and major states. By early 2026, thousands of ground robots are crawling across the front lines in eastern Ukraine, some for supply transport, and some armed and autonomous. Ukraine faces an army many times larger than itself, so it chose to replace part of its soldiers with machines that do not tire or fear.

In contrast, Russia is deepening its cooperation with China in developing military artificial intelligence systems, with China supplying about 80% of the vital technologies used in Russian drones.

* Taiwan.. Algorithms Prepare

China, advanced in artificial intelligence by a significant margin, raised its military budget by 7% in 2026, with a declared focus on military artificial intelligence and “smart warfare” technologies.

What is happening in the Taiwan Strait now, this moment is not yet war, but precise preparation for it. The Chinese army wants artificial intelligence to compensate for the lack of real combat experience, as China has not fought an actual war since 1979.

The danger lies not only in war itself but in the calculated error. Two artificial intelligence systems face off in a narrow strait; a wrong decision from one algorithm is enough to ignite a confrontation that no one wanted.

Moreover, Taiwan produces 90% of the world’s most advanced electronic chips, the very ones that artificial intelligence itself operates on. Any war there will not be regional. It will halt the digital economy of all humanity.

* “Doubt” The Most Dangerous Weapon!

Sites in Bahrain, Qatar, Kuwait, Saudi Arabia, the UAE, and Oman were targeted by Iranian missiles and drones. Along with this, fake videos generated by artificial intelligence appeared, showing smoke over towers and cities, spreading before any verification.

People saw scenes and images of “destruction” before they knew whether they were real.

Here emerges the most dangerous weapon; it is not the missile, but “doubt.” When you cannot distinguish between the real and the fabricated, morale collapses, and perhaps the ability to make decisions. The undeniable truth now is that the region needs today information defense systems that are no less important than air defense systems.

* Terror.. Who Holds Whom Accountable?!

The question that no one has an answer to yet.

Old wars consumed iron and gunpowder. Today’s wars consume data and algorithms.

The terrifying and horrifying fundamental difference here is as follows; if the human decision can be reevaluated, the wrong decision of the algorithm can never be retrieved or held accountable!

The United Nations is holding meetings on regulating artificial intelligence in wars, but a binding international framework seems far off, as every major country wants to finish building its capabilities first before accepting any restrictions.

We are not witnessing the evolution of war. We are witnessing the redefinition of human responsibility in its most dangerous moments.

And the earth-shattering and lingering question, which I believe will remain hanging for a long time:

When the algorithm kills, who holds whom accountable?

Those who manage the war today are not just generals, nor are they strategic analysts.

Those who manage the war today are programmers in quiet offices, writing code for which they have never seen a single bullet. And data analysts reading patterns on screens, not faces in the field. And tech companies selling “defensive solutions” that do not know, and do not want to know, how they are used exactly.

The military decision has partially shifted from operations rooms to algorithm rooms. And the algorithm holds no military rank, does not appear before a court, and does not think about what happens after the strike.

This is the most dangerous and terrifying transformation!

Goodbye,,«باب الذكاء الاصطناعي».. حين تقرر الخوارزمية من يعيش ومن يموت!

للمزيد من المقالات

اضغط هنا