اخبار لايف

عراب الذكاء الاصطناعي يتنبأ بانقراض البشرية خلال 30 عاما





الأحد 29/ديسمبر/2024 – 03:08 م

يعتقد جيفري هينتون، الذي يُشار إليه غالبًا باعتباره عراب الذكاء الاصطناعي، أن هناك احتمالًا بنسبة 10% إلى 20% أن يؤدي الذكاء الاصطناعي إلى انقراض البشرية في غضون ثلاثين عامًا، وفقًا لـ فوربس.

عراب الذكاء الاصطناعي يتنبأ بانقراض البشرية خلال 30 عاما

صرح عالم الكمبيوتر البريطاني الكندي، قائلا: لم نضطر أبدًا إلى التعامل مع أشياء أكثر ذكاءً من أنفسنا من قبل، وكم عدد الأمثلة التي تعرفها لشيء أكثر ذكاءً يتم التحكم فيه بواسطة شيء أقل ذكاءً؟، مما يسلط الضوء على الحاجة الملحة إلى العمل ويثير أسئلة عميقة حول كيفية تطوير الذكاء الاصطناعي وإدارته.

خفض الاحتمالات

أشار هينتون إلى أن معالجة المخاطر الوجودية التي يفرضها الذكاء الاصطناعي تتطلب التركيز على ثلاثة أجزاء: التنظيم، والتعاون العالمي، والتعليم المبتكر، ومن خلال التركيز على بقاء البشرية، فإن تطوير الذكاء الاصطناعي لم يعد قضية متخصصة بل ضرورة عالمية.

 

كما أوضح هينتون مدى الحاجة إلى التنظيم والمعاهدات الدولية على نطاق معاهدة منع انتشار الأسلحة النووية لعام 1968، وحتى لو تحقق هذا، فإن الأطر القانونية لن تحقق الكثير، ويبرز التعليم باعتباره أداة قوية للغاية في حماية مستقبل البشرية، ومن خلال ما أسماه عالم الكمبيوتر، بـ التعليم اللانهائي، يمكن تعزيز القيمة الإنسانية والإبداع والتفكير الأخلاقي لاستكمال الآلات الذكية وليس التنافس معها.

 

وعلى نفس القدر من الأهمية، فإن تدريس الأخلاقيات عبر المناهج الدراسية سوف يسمح للطلاب بالتعرف على المخاطر المحتملة للذكاء الاصطناعي والتنقل بينها، لذلك أكد على أهمية دمج الأطر الأخلاقية في التعلم باستخدام الذكاء الاصطناعي. 

 

وفقًا للمنتدى الاقتصادي العالمي، قد تظهر 69 مليون وظيفة مرتبطة بالذكاء الاصطناعي بحلول عام 2027، ولا يتطلب الاستفادة من هذه الفرص مهارة البرمجة أو مهارات تحليل البيانات فحسب، بل يتطلب أيضًا عقلية ريادية والتزامًا لا هوادة فيه بالنمو الشخصي. 

التنظيم والعمل العالمي

لقد اكتسبت دعوة هينتون لاتخاذ تدابير تنظيمية قوية صخبًا بين الهيئات الدولية مثل الأمم المتحدة، وفي عالم حيث غالبًا ما تطغى المكاسب الاقتصادية على الاعتبارات الأخلاقية، فإن الرقابة العالمية أمر بالغ الأهمية. 

وتحتاج السياسات إلى تحفيز أبحاث الذكاء الاصطناعي المفيدة مع وضع حواجز وقائية ضد التطبيقات الضارة، مثل أنظمة الأسلحة المستقلة، كما يمكن لنموذج مشابه للهيئة الحكومية الدولية المعنية بتغير المناخ (IPCC) تمكين الدول من التنسيق، ووضع معايير جماعية تحمي مصالح البشرية على الربح القصير الأجل.

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

زر الذهاب إلى الأعلى