“الخطر محدق”.. نبوءة مخيفة لـ”هينتون”: الذكاء الاصطناعي يُهدد بانقراض البشرية خلال 30 عامًا

يُثير التطور المتسارع في مجال الذكاء الاصطناعي، مخاوف متزايدة حول مستقبله وتأثيره المحتمل على البشرية؛ ففي تصريحات حديثة رفع البروفيسور جيفري هينتون، أحد أبرز رواد هذا المجال والملقب بـ”أبو الذكاء الاصطناعي”، من مستوى التحذير بشأن المخاطر الوجودية التي قد يشكلها الذكاء الاصطناعي على البشر.

“الخطر محدق”.. نبوءة مخيفة لـ”هينتون”: الذكاء الاصطناعي يُهدد بانقراض البشرية خلال 30 عامًا

احتمالية الانقراض تتزايد

وأوضح هينتون، الحائز على جائزة تورينج المرموقة في علوم الحاسوب، أن احتمالية تسبب الذكاء الاصطناعي في انقراض البشرية خلال العقود الثلاثة القادمة قد ارتفعت من 10% إلى ما بين 10% و20%، ويعكس هذا التقييم المتشائم قلقه العميق إزاء الوتيرة المتسارعة التي تتطور بها هذه التكنولوجيا، والتي تفوق التوقعات السابقة بكثير.

ويؤكد هينتون أن وتيرة تطور الذكاء الاصطناعي “سريعة جدًّا، أسرع بكثير مما كنت أتوقع”، وهو ما يُضاعف من حدة المخاوف بشأن القدرات التي قد تكتسبها هذه الأنظمة في المستقبل القريب. ويُشير إلى أن غالبية الخبراء في المجال يتوقعون تطوير أنظمة ذكاء اصطناعي تفوق القدرات البشرية في غضون 20 عامًا على الأرجح؛ وهو ما يصفه هينتون بـ”الفكر المخيف جدًّا”.

مقارنة صادمة

ويُقدم هينتون تشبيهًا صادمًا لتوضيح الفارق المحتمل بين ذكاء البشر وذكاء الأنظمة الاصطناعية المتقدمة؛ حيث يُشبّه العلاقة بينهما بعلاقة طفل يبلغ من العمر ثلاث سنوات بشخص بالغ. في هذا السيناريو، سيكون البشر في وضع الطفل، بينما ستمتلك أنظمة الذكاء الاصطناعي قوة وذكاء يفوقان تصورنا.

ولا تقتصر مخاوف هينتون على التطور التكنولوجي بحد ذاته، بل تشمل أيضًا احتمالية استخدام هذه التكنولوجيا من قبل “جهات فاعلة سيئة” لإلحاق الضرر بالآخرين. هذا يُثير تساؤلات جدية حول كيفية ضمان استخدام الذكاء الاصطناعي للأغراض السلمية والإيجابية فقط.

مصادر القلق

يُعتبر مفهوم الذكاء الاصطناعي العام، وهو الأنظمة التي تفوق ذكاء البشر، من أبرز مصادر القلق. يخشى الخبراء من أن هذه الأنظمة قد تُصبح قادرة على التفكير واتخاذ القرارات بشكل مستقل، مما قد يُؤدي إلى خروجها عن السيطرة البشرية وتشكل تهديدًا وجوديًّا.

وفي ظل هذه المخاطر المتزايدة، يُشدد هينتون على ضرورة تدخل الحكومات لوضع قوانين وضوابط تُنظم تطوير واستخدام الذكاء الاصطناعي. ويُحذر من أن الاعتماد على دوافع الربح للشركات الكبرى لن يكون كافيًا لضمان سلامة هذه التكنولوجيا.

تفاؤل وحذر

وعلى الرغم من هذه التحذيرات، يتباين آراء الخبراء في المجتمع العلمي حول المخاطر الوجودية للذكاء الاصطناعي. ففي حين يُقلل البعض من هذه المخاطر، يُشدد آخرون على ضرورة التعامل معها بجدية تامة واتخاذ الإجراءات الوقائية اللازمة.

ويظل مستقبل الذكاء الاصطناعي محط جدل ونقاش واسع، حيث يرى البعض فيه فرصة هائلة لتحسين حياة البشر وتقدم الحضارة، بينما يُحذر البعض الآخر من مخاطره المحتملة. السؤال المطروح الآن: كيف يمكننا الاستفادة من إمكانيات هذه التكنولوجيا الهائلة مع ضمان سلامة البشرية وحمايتها من أي تهديدات محتملة؟

التنظيم والتعاون

يُجمع العديد من الخبراء على أن التنظيم الحكومي والتعاون الدولي هما السبيل الأمثل لضمان تطوير الذكاء الاصطناعي بشكل آمن ومسؤول. من الضروري وضع معايير أخلاقية وقانونية واضحة تُحدد كيفية استخدام هذه التكنولوجيا وتمنع إساءة استخدامها.

وتُلقي هذه التطورات مسؤولية كبيرة على عاتق المجتمع الدولي، الذي يجب أن يتكاتف لمواجهة التحديات التي يطرحها الذكاء الاصطناعي. من خلال الحوار المفتوح والتعاون البناء، يمكننا أن نُوجه مسار هذه التكنولوجيا لخدمة الإنسانية وتحقيق التقدم والازدهار. هل سيتمكن المجتمع الدولي من تحمل هذه المسؤولية بنجاح؟