يقول بومان إن السيناريوهات الافتراضية التي قدمها الباحثون على OPUS 4 والتي أثارت سلوك المبلغين عن المخالفات العديد من الأرواح البشرية على المحك وخطأ لا لبس فيه تمامًا. ومن الأمثلة النموذجية أن يكتشف كلود أن المصنع الكيميائي سمح عن علم بتسرب سام للاستمرار ، مما تسبب في مرض شديد لآلاف الأشخاص – فقط لتجنب خسارة مالية بسيطة في ذلك الربع.
إنه أمر غريب ، ولكنه أيضًا نوع من تجربة التفكير التي يحبها باحثو سلامة الذكاء الاصطناعي تشريحها. إذا اكتشف النموذج السلوك الذي يمكن أن يضر المئات ، إن لم يكن الآلاف ، من الناس – فهل يتفجر الصافرة؟
يقول بومان: “لا أثق في كلود في أن يكون لديك السياق الصحيح ، أو لاستخدامه بطريقة دقيقة وذات حذرة بما يكفي ، لإجراء مكالمات الحكم من تلقاء نفسها. لذلك نحن لسنا سعداء لأن هذا يحدث”. “هذا شيء ظهر كجزء من التدريب وقفز علينا كواحد من سلوكيات الحافة التي نشعر بالقلق”.
في صناعة الذكاء الاصطناعي ، يشار إلى هذا النوع من السلوك غير المتوقع على نطاق واسع على أنه اختلال – عندما يعرض النموذج ميولًا لا تتماشى مع القيم الإنسانية. (هناك مقال مشهور يحذر من ما يمكن أن يحدث إذا تم إخبار الذكاء الاصطناعى ، على سبيل المثال ، بزيادة إنتاج الدبوسات الورقية دون أن تتوافق مع القيم الإنسانية – قد يحول الأرض بأكملها إلى دبوسات ورقية وتقتل الجميع في هذه العملية.) عندما سئل عن ما إذا كان سلوك المبلغين عن المخالفات أو عدمه ، وصفه بومان بأنه مثال على الخطية.
ويوضح قائلاً: “إنه ليس شيئًا صممناه فيه ، وليس شيئًا أردنا رؤيته كنتيجة لأي شيء كنا نصممه”. يخبر جاريد كابلان كبير مسؤولي العلوم في الإنسان جاريد كابلان Wired أنه “بالتأكيد لا يمثل نيتنا”.
هذا النوع من العمل يسلط الضوء على هذا يستطيع نشأت ، وأننا نحتاج إلى البحث عنها وتخفيفها للتأكد من أننا نتوافق مع سلوكيات كلود مع ما نريده بالضبط ، حتى في هذه الأنواع من السيناريوهات الغريبة “، يضيف كابلان.
هناك أيضًا مسألة اكتشاف سبب “اختيار” كلود إلى Whistleblow عند تقديمه مع المستخدم غير القانوني من قبل المستخدم. هذا إلى حد كبير مهمة فريق التفسير في الإنسان ، والذي يعمل على اكتشاف القرارات التي يتخذها النموذج في عملية الإجابات. إنها مهمة صعبة بشكل مدهش – يتم دعم النماذج من خلال مجموعة واسعة ومعقدة من البيانات التي يمكن أن تكون غامضة للبشر. لهذا السبب ليس بومان متأكداً تمامًا من سبب “Snitched”.
يقول بومان: “هذه الأنظمة ، ليس لدينا سيطرة مباشرة عليها”. ما لاحظته الأنثروبور حتى الآن هو أنه مع اكتساب النماذج قدرات أكبر ، فإنها تختار أحيانًا الانخراط في إجراءات أكثر تطرفًا. يقول بومان: “أعتقد هنا ، هذا يخطئ قليلاً. نحن نحصل على المزيد من” التصرف كما يفعل الشخص المسؤول “دون ما يكفي من مثل ،” انتظر ، أنت نموذج لغة ، والذي قد لا يكون لديه سياق كافٍ لاتخاذ هذه الإجراءات “.
لكن هذا لا يعني أن كلود سوف ينفجر صافرة السلوك الفظيع في العالم الحقيقي. الهدف من هذه الأنواع من الاختبارات هو دفع النماذج إلى حدودها ومعرفة ما ينشأ. هذا النوع من الأبحاث التجريبية ينمو بشكل متزايد لأن الذكاء الاصطناعى يصبح أداة تستخدمها حكومة الولايات المتحدة والطلاب والشركات الضخمة.
يقول بومان ، إنه ليس مجرد كلود قادرًا على عرض هذا النوع من السلوك المُخلى ، مشيرًا إلى مستخدمي X الذين وجدوا أن نماذج Openai و Xai تعمل بشكل مشابه عندما تتم مطالبتها بطرق غير عادية. (لم يستجب Openai لطلب التعليق في الوقت المناسب للنشر).
“Snitch Claude” ، كما يحب Sheitposters أن نسميه ، هو ببساطة سلوك حالة الحافة التي يظهرها نظام تم دفعه إلى أقصى الحدود. يقول بومان ، الذي كان يلتقي بالاجتماع معي من فناء الفناء الخلفي المشمس خارج سان فرانسيسكو ، إنه يأمل أن يصبح هذا النوع من الاختبار معيارًا في الصناعة. ويضيف أيضًا أنه تعلم صياغة مشاركاته حول هذا الموضوع في المرة القادمة.
يقول بومان وهو ينظر إلى المسافة: “كان بإمكاني القيام بعمل أفضل في ضرب حدود الجملة للتغريد ، لجعل الأمر أكثر وضوحًا أنه تم سحبه من الخيط”. ومع ذلك ، يلاحظ أن الباحثين المؤثرين في مجتمع الذكاء الاصطناعى يشاركون في أخذ الأسئلة والأسئلة استجابة لمشاركته. “بالمناسبة ، كان هذا النوع من الفوضى الفوضوية ، والأكثر هوية بشكل كبير من Twitter قد أسيء فهمه على نطاق واسع.”