اخبار لايف

للتجارب أو الانتحال.. الذكاء الاصطناعي يتيح «توائم رقمية» لكل البشر


باستطاعة الذكاء اصطناعي أن ينسخ شخصيتك وقيمك وتفضيلاتك بدقة لا مثيل لها، وهو ما قد يوفر توأما رقميا لكل شخص، وفق ما توصلت إليه دراسة حديثة أجراها باحثون من جامعة ستانفورد وغوغل دييب مايند.

ومنذ انطلاق تطور الذكاء الاصطناعي، هيمنت مناقشات تتعلق باستبداله في الوظائف وأثره على ارتفاع مستويات البطالة بين البشر، لكن مع تطور هذه التقنيات المرعبة، يبدو أن الأمر لن يتوقف عن استبدال البشر في الوظائف، لكنه استبدال وجودهم في الحقيقة، ويوم يكون الواقع الافتراضي أهم للإنسان من الواقع المادي الوجودي، ستبدو بشكل أوضح هذه التقنية المرعبة القادمة.

وقال باحثون إن الذكاء اصطناعي قادر على نسخ شخصيتك وقيمك وتفضيلاتك بدقة لا مثيل لها… هذا ما توصلت له دراسة حديثة أجراها باحثون من جامعة ستانفورد وغوغل دييب مايند، اذ 

وحسب الدراسة التي نشرت على منصة arXiv، فإن هذه التكنولوجيا قد تؤثر بشكل كبير على علاقة البشر بالهوية الرقمية، وقد أوضحت كيف يمكن للوكلاء الذكيين محاكاة سمات الإنسان بعد مقابلة قصيرة مدتها ساعتان فقط.

هذه “التوائم الرقمية” تفتح آفاقًا جديدة، لكنها تثير أيضًا تساؤلات أخلاقية هامة.

كيف تعمل التكنولوجيا؟

قام الباحثون بتصميم وكلاء ذكاء اصطناعي قادرون على محاكاة شخصية الإنسان بناءً على مقابلات معمقة. هذه النقاشات، التي أجريت مع 1,052 مشاركًا، سمحت بجمع بيانات مفصلة عن قصص حياتهم وآرائهم وقيمهم.

وتم استخدام البيانات التي تم جمعها أثناء المقابلات لتدريب نماذج الذكاء الاصطناعي، والتي قامت بعد ذلك بتكرار ردود المشاركين بدقة مذهلة. وفي الواقع، في 85% من الحالات، كانت إجابات وكلاء الذكاء الاصطناعي تتطابق مع إجابات الأفراد الحقيقيين في اختبارات مختلفة، بما في ذلك الاستطلاعات الاجتماعية، والألعاب الاقتصادية، وتقييمات الشخصية.

هذا الأداء أظهر أن الوكلاء يمكنهم محاكاة سلوكيات واختيارات البشر بشكل مقنع.

التطبيقات الواعدة

ووفقا للدراسة، يمكن استخدام الوكلاء لإجراء دراسات سوسيولوجية أو سلوكية دون الاعتماد على مشاركين من البشر. فعلى سبيل المثال، يمكنهم استكشاف سيناريوهات حساسة مثل الأزمات السياسية أو التغييرات في السياسات العامة دون تعريض أي شخص للمخاطر.

ويتصور الباحثون أيضًا تطبيقات في مجال الصحة العامة أو التسويق، حيث يمكن لهذه التوائم الرقمية التنبؤ بتفاعلات الأفراد تجاه المبادرات أو المنتجات الجديدة.

لكن على الرغم من دقتها، لا يمكن لهذه التقنية أن تلتقط التعقيد الكامل للطبيعة البشرية. على سبيل المثال، يواجهون صعوبة في تكرار القرارات الاقتصادية أو الفروق السياقية، مثل “لعبة الديكتاتور”، وهو اختبار يقيس مفهوم العدالة.

الأهم من ذلك، أن هذه التكنولوجيا تثير مخاوف أخلاقية، إذ يمكن أن يستخدم الوكلاء لانتحال الهويات أو التلاعب بالآراء، مما يزيد من المخاطر المرتبطة بالفعل بالتقنيات مثل “الديب فيك” (Deepfake) والتلاعبات الرقمية الأخرى.

مستقبل الفرص 

وبينما توفر هذه التوائم الرقمية إمكانيات غير مسبوقة للبحث، يجب تنظيم استخدامها لمنع إساءة الاستعمال. ويشدد الباحثون على الحاجة لتنظيم هذه التكنولوجيا بينما نستكشف إمكانياتها لفهم السلوك البشري بشكل أفضل.

ويشكل هذا التقدم نقطة تحول هامة في تطور الذكاء الاصطناعي، لكنه يذكر أيضًا بأهمية البقاء يقظين تجاه المخاطر التي قد تنطوي عليها.

aXA6IDIxMy4xNjUuMjQ3LjkzIA== جزيرة ام اند امز US

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

زر الذهاب إلى الأعلى