الذكاء الاصطناعي قادر على استنساخ شخصية الانسان

2025-01-15 3

ثبتت دراسة جديدة أجراها باحثون من جامعة “ستانفورد“، وشركة “غوغل“، أن الذكاء الاصطناعي يمكنه استنساخ شخصية إنسان بدقة تصل إلى 85% بعد مقابلة تستمر لمدة ساعتين فقط، من خلال تحليل إجابات الأفراد، ومحاكاة سلوكهم. وتمكن الباحثون في الدراسة التي أُجريت بتاريخ 15 نوفمبر الماضي، على قاعدة بيانات ما قبل الطباعة “arXiv”، من إنشاء “وكلاء محاكاة” باستخدام الذكاء الاصطناعي لاستنساخ شخصية إنسان، أى تمثيل نسخ مطابقة لشخصيات 1052 فردًا، استنادًا إلى مقابلات استغرقت ساعتين مع كل مشارك، وفقًا لتقرير نشره موقع “livescience”. أجرى الباحثون، مقابلات مع نحو ألف مشارك، استعرض كل منهم خلالها قصصه الشخصية، والقيم التي يلتزم بها، وكذلك آرائه بخصوص بعض القضايا المجتمعية. واستخدم الباحثون، هذه المحادثات لتدريب نموذج ذكاء اصطناعي توليدي مخصص لكل فرد، لاستنساخ شخصية إنسان، وفي النهاية قارنوا بين المشاركين، ونسخهم الاصطناعية من خلال اختبارات شخصية، واستطلاعات اجتماعية، وبعض الألعاب. حقق نموذج المحاكاة لاستنساخ الشخصية، توافقا كبيرا مع ردود البشر في اختبارات قياس المواقف، والسلوكيات الاجتماعية، مثل المسح الاجتماعي العام، ومقياس السمات الشخصية الخمسة. بينما انخفضت الدقة في المهام التي تتطلب فهما عميقا للمواقف الاجتماعية المعقدة، فقد أظهرت النتائج على سبيل المثال تراجعا ملحوظا في أداء نماذج المحاكاة على صعيد اتخاذ القرارات الاقتصادية ضمن ألعاب تعتمد على ديناميكيات اجتماعية، وسياقات دقيقة. يمكن الاستفادة من تقنية استنساخ الشخصية على عدة مستويات، مثل استخدامها للتنبؤ بكيفية استجابة المواطنين للسياسات الحكومية الجديدة، وهو ما يتيح اختبار الأفكار في بيئات آمنة تحت رقابة محكمة. كما يمكن توظيفها في مجال التسويق لفهم ردود أفعال المستهلكين تجاه منتجات معينة، مما يساعد في وضع استراتيجيات تسويقية أكثر فعالية. وعلى المدى البعيد، تهدف الدراسة إلى أن يكون لدى كل فرد في المستقبل “وكلاء” من الذكاء الاصطناعي للتعامل مع المواقف المختلفة نيابة عنه. كما هو الحال مع جميع التقنيات المتقدمة – وخاصة تلك القائمة على الذكاء الاصطناعي – تحمل هذه التكنولوجيا مخاطر محتملة. يعترف الباحثون، بإمكانية إساءة استخدام تلك المحاكاة مثلما وقع مع تقنية التزييف العميق التي تستغل في عمليات احتيال، وتلاعب، وانتحال الشخصيات.