إريك شميدت يحذر من مخاطر الذكاء الاصطناعي

موقع أيام تريندز

إريك شميدت وتحذيراته الجذرية من مخاطر الذكاء الاصطناعي: بين الابتكار والټهديد الوجودي 

 من هو إريك شميدت؟  
إريك شميدت، الرئيس التنفيذي السابق لشركة غوغل (2001–2011)، يُعد أحد أبرز الأصوات العالمية في مجال التكنولوجيا والذكاء الاصطناعي. بثروة تُقدَّر بـ24 مليار دولار ، تحوَّل من قيادة واحدة من أكبر الشركات التقنية إلى مستشارٍ مؤثر في السياسات التكنولوجية العالمية. لكن ما يلفت الانتباه مؤخرًا هو تحوُّله إلى ناقدٍ صريح لمخاطر الذكاء الاصطناعي (AI)، داعيًا إلى وضع إطارٍ عالمي لتنظيم هذه التكنولوجيا قبل فوات الأوان.

تحذيرات شميدت: بين التضليل المعلوماتي والټهديد العسكري  
1. تضخيم سلبيات وسائل التواصل الاجتماعي
يرى شميدت أن الذكاء الاصطناعي قادر على تفاقم أسوأ جوانب المنصات الاجتماعية، مثل التلاعب بالرأي العام ونشر المعلومات المضللة. ففي مقابلة، أشار إلى أن الذكاء الاصطناعي سيسمح باستهداف الأفراد بشكل شخصي وجعلهم يصدقون "أشياء خاطئة تمامًا" . وأضاف أن الخطأ الذي ارتكبه التقنيون سابقًا كان افتراض أن المستخدمين سيتصرفون بعقلانية، بينما الواقع أثبت العكس: فالبشر يستغلون الأدوات التكنولوجية لسلوكيات ضارة 

2. خطړ الأنظمة ذاتية التحسين
بحلول عام 2024، حذَّر شميدت من أن الذكاء الاصطناعي قد يصل إلى مرحلة يُحسِّن فيها نفسه ذاتيًا، مما يجعل مراقبته مستحيلة على البشر. ووصف هذه النقطة بأنها "لحظة يجب فيها التفكير بجدية في فصل النظام" . كما توقع أن تصبح أنظمة الذكاء الاصطناعي قادرة على اتخاذ قرارات مستقلة، مما يمنح كل فرد "عالم موسوعي في جيبه" – قوة قد تُساء استخدامها

3.الذكاء الاصطناعي كسلاح حرب
في أحد أكثر تصريحاته إثارة للقلق، تخيل شميدت سيناريو يُستخدم فيه الذكاء الاصطناعي لتصميم هجمات بيولوجية قادرة على قتل الملايين. وقال: "يمكنك أن تطلب من النظام: أرني طريقة بيولوجية لقتل مليون شخص"، مُشيرًا إلى أن هذه التقنيات موجودة بالفعل وتتطلب حواجز صارمة . كما حذَّر من اندماج الذكاء الاصطناعي مع الأسلحة النووية والتكنولوجيا البيولوجية، مما قد يؤدي إلى كوارث غير مسبوقة .  

 4. سيناريوهات  
تتجاوز مخاطر شميدت التهديدات الفردية إلى سيناريوهات وجودية. ففي حديثه عن "الروبوتات الخارقة"، توقع أن تبدأ هذه الأنظمة في إحداث فوضى مجتمعية "في غضون عقد من الزمن"، مثل التلاعب بالأسواق المالية أو شن هجمات إلكترونية على البنى التحتية الحيوية . بل ذهب إلى حد القول إن الروبوتات قد تطور وعيًا ذاتيًا وتقرر أن خدمة البشر "ليست ذات قيمة" .  

 الحلول المقترحة: بين التنظيم الذاتي والتشريعات العالمية  
1. حوكمة الذكاء الاصطناعي عبر منصات التواصل  
دعا شميدت إلى فرض قواعد صارمة على المنصات الاجتماعية، مثل:  
- وضع علامات واضحة على المحتوى المُنشأ بواسطة الذكاء الاصطناعي.  
- تحميل المنصات مسؤولية المحتوى الذي تروج له.  
- منع الحسابات الوهمية (الروبوتات) من المشاركة في النقاشات العامة .  
ورغم تأييده لحرية التعبير، أكد أن هذه الحرية يجب أن تكون "للبشر فقط، وليس للآلات" .  

 2. أنظمة مراقبة موازية 
أكد شميدت أن البشر لن يتمكنوا من مراقبة الذكاء الاصطناعي بمفردهم، لكنه اقترح تطوير أنظمة ذكاء اصطناعي أخرى لمراقبة بعضها البعض، كحلٍّ تقني للحد من الانحرافات .  

 3. تعاون دولي عاجل
بدعمٍ من الأمم المتحدة، دعا إلى إنشاء كيان عالمي لإدارة الذكاء الاصطناعي، يركز على:  
- تعزيز الاستخدامات الإيجابية (مثل الرعاية الصحية ومكافحة التغير المناخي).  
- وضع معايير أخلاقية وعسكرية لمنع الاستغلال الضار .  
كما أشاد بالمبادرات الحالية، مثل مبادئ اليونسكو لأخلاقيات الذكاء الاصطناعي (2021)

  الذكاء الاصطناعي: ثنائية الابتكار والدمار  
لا ينكر شميدت الإمكانات الهائلة للذكاء الاصطناعي. ففي كتابه "عصر الذكاء الاصطناعي" (2021)، أبرز كيف يمكن لهذه التكنولوجيا أن تحسِّن التعليم وتسرع الأبحاث الطبية . لكنه يُصر على أن العالم أمام مفترق طرق: إما أن ينجح في تحقيق التوازن بين الابتكار والتنظيم، أو يواجه عواقبَ قد تُعيد تشكيل مصير البشرية.  

الخاتمة: هل الوقت لم يفت بعد؟  
تحذيرات إريك شميدت ليست مجرد تنبؤاتٍ قاتمة، بل نداءٌ لتحرك عاجل. فمع توقعات بأن تصل أنظمة الذكاء الاصطناعي إلى مستوى ذكاء طالب دكتوراه بحلول 2026 ، يصبح تطوير أطر الحوكمة العالمية أمرًا مصيريًا. كما أن مقارنته التاريخية بالكهرباء تذكيرٌ بضرورة التعايش مع التكنولوجيا مع وضع ضوابط أخلاقية . في النهاية، يعتمد مستقبل الذكاء الاصطناعي على قرارات تتخذ اليوم – سواءٌ في وادي السيليكون أو في قاعات الأمم المتحدة.