هل من الممكن أن يقود الذكاء الصناعي العالم إلى الدمار؟
وهل من المكن ان المدى الأخير الذي سيصله الذكاء الصناعي هو يوم يوم القيامة
بنهاية البشرية ةبداية يوم الحساب؟
هي فكرة يسمعها كثير من الناس اليوم،
لأنها ناتجة عن خوف طبيعي من أي تقنية تتطور بسرعة أكبر مما نعتاد عليه. لكن دعنا
ننظر الى الصورة بهدوء وبشكل واقعي—بعيدًا عن التفاؤل المبالغ فيه وبعيدًا عن
التشاؤم الكارثي.
أولًا: إلى أين يسير العالم فعلاً؟
العالم يتجه نحو اعتماد متزايد على الذكاء
الصناعي في ثلاثة اتجاهات رئيسية:
1- أتمتة العمل:
كثير من المهام الروتينية والمكتبية والصناعية
ستُدار بالذكاء الصناعي، مما يغيّر شكل العمل وليس الحياة نفسها.
2- تعظيم القدرات البشرية:
الذكاء الصناعي ليس “كائنًا مستقلًا”، بل أداة
تقوّي الإنسان:
التشخيص الطبي، الترجمة، التعلم، البحث العلمي،
وحتى الأمن.
3- إدارة كبيرة وقيود أكبر:
الحكومات والشركات بدأت تضع قوانين صارمة، لأن
الجميع يُدرك خطورة ترك التقنية بلا ضوابط.
باختصار: التغير سريع… لكن ليس خارج السيطرة.
ثانيًا: هل يمكن أن يصل الذكاء الصناعي إلى
درجة “إنهاء البشر”؟
السيناريوهات الخيالية الشائعة عن “روبوتات
تسيطر على الأرض” لا تستند إلى الواقع التقني.
الذكاء الاصطناعي الحالي لا يملك: وعي, نية, أهداف ذاتية, ورغبة في السيطرة أو البقاء
هو عبارة عن خوارزميات تعمل ضمن حدود محددة.
فالخطر الحقيقي ليس “ثورة الآلات”…
بل سوء استخدام البشر لهذه الأدوات.
ثالثًا: ماذا عن يوم القيامة؟ هل له علاقة
بالتكنولوجيا؟
من الناحية الدينية، يوم القيامة ليس حدثًا
يصنعه البشر أو التكنولوجيا, هو أمر إلهي خارج نطاق أدوات البشر
مهما بلغت.
فالبشر قد يخطئون، ويفسدون، ويصنعون حروبًا…
لكنهم لا يملكون القدرة على تحديد نهاية العالم.
أما “التدمير الذاتي” المحتمل من سوء استخدام
التكنولوجيا أو الأسلحة، فهو جزء من الابتلاء البشري القديم، وليس شيئًا جديدًا أو
مختصًا بالذكاء الصناعي.
رابعًا: لماذا يولد التطور السريع شعورًا
بالذعر؟
السبب بسيط:
الإنسان يخاف من الأشياء التي لا يفهمها
بالكامل.
قبل 100 سنة، الناس خافوا من الكهرباء.
قبل 50 سنة، خافوا من الحواسيب.
قبل 20 سنة، خافوا من الإنترنت.
واليوم يخافون من الذكاء الصناعي.
ومع مرور الوقت، تصبح الأدوات “عادية”، ويدرك
الناس أنها لم تأتِ بالكارثة التي توقعوها.
خامسًا: هل القلق الذي تشعر به طبيعي؟
نعم. أي إنسان يرى تغيرًا كبيرًا يشعر بالخوف من المستقبل
لكن رؤية التكنولوجيا على أنها “علامة دمار”
وليس “مرحلة تغير” يجعل الصورة أغمق مما هي عليه.
سادسا: من أي جاءت فكرة الذعر من الذكاء الصناعي:
ماذا نرى الآن بالفعل؟
تقارير تحقيقية أظهرت أن الجيش الإسرائيلي استخدم أنظمة مدعومة بالذكاء الاصطناعي (أسماء مثل
«Lavender» وغيرها) للمساعدة في اكتشاف قوائم أهداف في غزة—أدوات كانت تُسرّع تحليل
كميات ضخمة من البيانات. هذا أثار انتقادات حول الأخطاء والمساءلة. منظمات حقوقية وثّقت استخدام «أدوات
رقمية» وذكاء اصطناعي في اتخاذ قرارات استهداف، وطرحت أسئلة قانونية وأخلاقية حول
الشفافية والمساءلة.
شركات تقنية كبرى (مثل مايكروسوفت) اتخذت
إجراءات محدودة ضد بعض استخدامات سحاباتها بعد تقارير عن استغلالها في
مراقبة/تحليل واسع النطاق؛ هذا يبيّن أن الشركات بدأت تردّ لكن الإجراءات متباينة.
على مستوى الجريمة، تقارير شرطية وأوروبية
تُبيّن أن المجرمين يستخدمون تقنيات توليد محتوى
(deepfakes، صوتيات مُزيفة، رسائل
آلية) للاحتيال،
الابتزاز، والتلاعب الإعلامي — وهذا منتشر ومتزايد.
اذا ما هو التقيم المنطقي لتطور الذكاء الاصطناعي
في الحروب والجريمة:
1- المرحلة الحالية — أدوات دعم
قرار أسرع وكميات بيانات أكبر.
معظم الأنظمة اليوم تعمل كمساعدين: تصنيف، رصد،
توصية. أخطر ما فيها هو السرعة وحجم الأخطاء التي قد تُترجم إلى نتائج مدمرة بسرعة
إذا لم يكن هناك إشراف بشري صارم.
2- المخاطر القابلة للتحقق:
أخطاء تصنيف تؤدي لاستهداف مدنيين (bias / false positives).
تسريع عملية القتل أو القصف لأن القرار يُتّخذ
أو يُعجّل بالآلات.
استغلال AI في الجريمة: deepfakes للاحتيال/ابتزاز، أدوات لأتمتة الجرائم المالية.
3- إلى أين يمكن أن يصل؟ — احتمالان
واقعيان:
سيناريو مع تنظيم وحوكمة أفضل: الأنظمة تُستخدم كأدوات دعم، تُفرض قواعد استخدام، وتعقد قوانين
دولية على أسلحة مستقلة. (هناك خطوات فعّالة تُناقش على مستوى الأمم المتحدة
وأوروبا).
سيناريو أسوأ — إساءة استخدام وتسابق
تسليحي: تسريع الأتمتة في اتخاذ القرار
العسكري دون رقابة كافية، وانتشار تقنيات التزييف في الجريمة والسياسة. هذا ممكن
إذا استمرت السباقات التقنية والسياسات الضعيفة.
هل ما نراه في حرب غزة وحرب لبنان «بداية»
لتغيير جوهري؟
نعم يمكن اعتباره نقطة مهمة تظهر كيف تُستخدم أدوات
الذكاء الاصطناعي في بيئة قتال حقيقية: تحليل بيانات ضخمة، مساعدة الاستخبارات، وتسريع العمليات. فهو تكثيف
لأدوات تحليلية تُسرّع صنع القرار البشري وتزيد مخاطره في أعمال القتل والأبادة
الرسمي, وترقبوا دائما منا كل جديد
اترك تعليقا