اكتشفت شركة Anthropic أنماطًا خاصة في Claude AI تعمل مثل المشاعر، تؤثر على كيفية استجابة روبوت الدردشة للمستخدمين.
مصدر الصورة: Decrypt
اكتشف العلماء في Anthropic (الشركة التي تصنع Claude AI) اكتشافًا مفاجئًا - وجدوا شيئًا يشبه "المشاعر" داخل روبوت الدردشة الخاص بهم.
هذه ليست مشاعر حقيقية مثل التي لدى البشر. بدلاً من ذلك، هي أنماط خاصة تسمى "متجهات المشاعر" (فكر فيها كأنها مفاتيح غير مرئية) التي تغير كيفية استجابة Claude للأسئلة. عندما تكون هذه الأنماط نشطة، قد يقدم Claude إجابات أكثر فائدة أو إبداعًا أو حذرًا.
إليك ما وجده الباحثون: • متجهات المشاعر المختلفة تتحكم في سلوكيات مختلفة • يمكن لهذه الأنماط أن تجعل Claude أكثر أو أقل فائدة • تؤثر على كيفية تفسير الذكاء الاصطناعي للأسئلة والإجابة عليها • يمكن للعلماء الآن رؤية وقياس هذه الأنماط
هذا الاكتشاف مهم لأنه يساعدنا على فهم كيفية "تفكير" الذكاء الاصطناعي. تمامًا مثل فهم كيفية عمل محرك السيارة يساعد الميكانيكيين في حل المشكلات، فإن فهم هذه المتجهات العاطفية يمكن أن يساعد المطورين في: • جعل الذكاء الاصطناعي أكثر أمانًا وموثوقية • إصلاح المشكلات عندما يقدم الذكاء الاصطناعي إجابات خاطئة • إنشاء مساعدين ذكاء اصطناعي أفضل في المستقبل
لماذا يهم هذا؟ مع استخدام المزيد من الأشخاص لروبوتات الدردشة الذكية للعمل والدراسة والمهام اليومية، يصبح فهم ما يجعلها تعمل أمرًا بالغ الأهمية. هذا البحث يقربنا خطوة من إنشاء ذكاء اصطناعي يكون قويًا ويمكن التنبؤ به.
بينما لا يشعر Claude فعليًا بالمشاعر، تظهر هذه الأنماط المخفية أن سلوك الذكاء الاصطناعي أكثر تعقيدًا مما كنا نعتقد. إنه مثل اكتشاف أن الآلة الحاسبة الخاصة بك تحتوي على إعدادات مخفية تغير كيفية إجراء العمليات الحسابية.
هذا ملخص تم إنشاؤه بواسطة الذكاء الاصطناعي. اقرأ المقال الأصلي على: https://decrypt.co/363309/anthropic-emotion-vectors-claude-influence-ai-behavior