قالت شركة “مايكروسوفت” الأميركية إن روبوت الدردشة التابع لها (Bing AI) والذي يعمل بتقنيات الذكاء الصناعي سيتم تقييده بحيث لا يُصبح متاحاً للمحادثات المطولة، وقالت إن السبب في ذلك يعود إلى “محادثات مقلقة” أجراها الروبوت.
ونقلت شبكة (CNBC) الأميركية عن الشركة قولها إنه سيتم تحديد المحادثات بـ50 سؤالاً في اليوم وخمسة أسئلة وأجوبة لكل جلسة فردية.
“ChatGPT” تطبيق ذكاء اصطناعي بدرجة ماجستير إدارة الأعمال, كيف هذا؟
وأشارت الشركة إلى أن, “هذه الخطوة ستحد من بعض السيناريوهات حيث يمكن لجلسات الدردشة الطويلة أن “تربك” نموذج الدردشة”.
ويأتي التغيير بعد أن اكتشف مختبرو النسخة التجريبية الأوائل من (chatbot) المصمم لتحسين محرك بحث (Bing)، أنه يمكن أن يخرج عن المسار ويناقش العنف، ويصرح عن الحب، ويصر على أنه كان على صواب عندما يكون خاطئاً.
وألقت “مايكروسوفت” باللوم على جلسات الدردشة الطويلة التي تضم أكثر من 15 سؤالاً في بعض عمليات التبادل الأكثر إثارة للقلق حيث كرر الروبوت نفسه أو قدم إجابات مخيفة.
وعلى سبيل المثال ففي دردشة واحدة قال الروبوت (Bing) للكاتب التكنولوجي بن طومسون: “لا أريد أن أكمل هذه المحادثة معك. لا أعتقد أنك مستخدم لطيف ومحترم, لا أعتقد أنك شخص جيد, لا أعتقد أنك تستحق وقتي وطاقتي”.
ويسلط الكشف عن هذه المشكلة الضوء على كيفية عمل هذه النماذج اللغوية الكبيرة، والتي لا تزال قيد الاكتشاف. وتقول “مايكروسوفت” إنها ستدرس توسيع الحد الأقصى من المحادثات في المستقبل وطلبت أفكاراً من مختبريها.
وترى “مايكروسوفت” أن الطريقة الوحيدة لتحسين منتجات الذكاء الاصطناعي هي طرحها في العالم والتعلم من تفاعلات المستخدم