إذا لم يتم إلغاء الاشتراك في تدريب النماذج ، فإن سياسة التدريب المتغيرة تغطي جميع الدردشات الجديدة والمراجعة. هذا يعني أن الأنثروبور لا يقوم بتدريب نموذجه التالي تلقائيًا على سجل الدردشة بأكمله ، إلا إذا عادت إلى الأرشيف وتشويه خيط قديم. بعد التفاعل ، تتم الآن إعادة فتح الدردشة القديمة والعبة عادلة للتدريب في المستقبل.
تصل سياسة الخصوصية الجديدة أيضًا بتوسيع سياسات الاحتفاظ بالبيانات في الأنثروبور لأولئك الذين لا يخترقون. زادت الأنثروب من مقدار الوقت الذي يتم الاحتفاظ به على بيانات المستخدم من 30 يومًا في معظم الحالات إلى خمس سنوات أكثر شمولاً ، سواء أكان المستخدمون يسمحون بالتدريب على النماذج على محادثاتهم. سيظل المستخدمون الذين يخوضون إلغاء الاشتراك تحت سياسة 30 يومًا.
ينطبق تغيير الأنثروبور من حيث الشروط على المستخدمين التجاريين ، مجانًا وكذلك المدفوع. لا يتأثر المستخدمون التجاريون ، مثل أولئك الذين يتم ترخيصهم من خلال الخطط الحكومية أو التعليمية ، بالتغيير ولن يتم استخدام المحادثات من هؤلاء المستخدمين كجزء من التدريب النموذجي للشركة.
Claude هي أداة منظمة العفو الدولية المفضلة لبعض مطوري البرامج الذين احتضوا قدراته كمساعد ترميز. نظرًا لأن تحديث سياسة الخصوصية يتضمن مشاريع الترميز بالإضافة إلى سجلات الدردشة ، يمكن أن تجمع الأنثروبور كمية كبيرة من معلومات الترميز لأغراض التدريب مع هذا المفتاح.
قبل تحديث أنثروبور سياسة الخصوصية الخاصة بها ، كانت كلود واحدة من أدوات الدردشة الرئيسية الوحيدة التي لم تستخدم محادثات لتدريب LLM تلقائيًا. وبالمقارنة ، فإن الإعداد الافتراضي لكل من chatgpt من Openai وجيميني من Google للحسابات الشخصية يتضمن إمكانية تدريب النماذج ، ما لم يختار المستخدم إلغاء الاشتراك.
تحقق من الدليل الكامل لـ Wired إلى عمليات إلغاء الاشتراك في تدريب الذكاء الاصطناعى لمزيد من الخدمات حيث يمكنك طلب عدم تدريب AI Generative على بيانات المستخدم. أثناء اختيار إلغاء الاشتراك في التدريب على البيانات ، يعد نعمة للخصوصية الشخصية ، خاصة عند التعامل مع محادثات chatbot أو غيرها من التفاعلات الفردية ، على الأرجح أن تضع في الاعتبار أن أي شيء تنشره بشكل عام عبر الإنترنت ، من منشورات وسائل التواصل الاجتماعي إلى مراجعات المطاعم ، من المحتمل أن يتم كشطها من قبل بعض البدء كمواد تدريبية لنموذجها العملاق التالي.