مايكروسوفت تجعل Copilot يفهم ما يراه ويقدّم مساعدة فورية
أعلنت شركة مايكروسوفت مزايا جديدة لمساعد الذكاء الاصطناعي الخاص بها “كوبايلوت Copilot” من أجل توسيع قدراته في تنفيذ المهام المختلفة.
ومن المزايا الجديدة التي كشفت عنها مايكروسوفت ميزة “رؤية كوبايلوت Copilot Vision“، التي تتمتع بقدرات معالجة الصور والفيديو التي عرضتها شركة OpenAI في وقت سابق من هذا العام لـ ChatGPT، وهي تقدم للمستخدمين مساعدة فورية تعتمد على المحتوى المعروض في الشاشة.
وتعمل حاليًا ميزة “رؤية كوبايلوت” فقط داخل متصفح مايكروسوفت إيدج. وبمجرد تفعيلها، يمكن للمستخدمين – عند زيارة مواقع معينة مدعومة – طرح الأسئلة على كوبايلوت بشأن المحتوى المعروض في أثناء التصفح.
ويمكن لتلك الميزة اقتراح الخطوات التالية، وتقديم المساعدة في المهام المطلوبة. ويمكن للمستخدمين أيضًا التحدث إلى كوبايلوت مباشرة بدلًا من الكتابة، مما يجعل التفاعل معه سهلًا وطبيعيًا، كأنه مساعد شخصي حقيقي يجلس مع المستخدم.
وصممت مايكروسوفت تلك الميزة مع التركيز على الخصوصية كعنصر أساسي، فلا تُفعّل هذه الميزة إلا برغبة المستخدمين، ولا تخزن الشركة أي بيانات أو تستخدمها في تدريب نماذجها، ولا تعمل الميزة في المواقع التي تتطلب اشتراكًا للوصول إلى المحتوى، وتعمل فقط في قائمة محددة من المواقع، مع وعد بتوسيع نطاقها لتضم مواقع إضافية في المستقبل.
وبدأت مايكروسوفت طرح الميزة الجديدة لمجموعة محدودة من مستخدمي كوبايلوت برو في الولايات المتحدة، ومن المنتظر التوسع في إتاحتها خلال الأسابيع المقبلة للمزيد من المستخدمين.
وكانت مايكروسوفت أيضًا قد أعادت تصميم واجهة مساعد Copilot حديثًا لتقديم تجربة استخدام جذابة، ولجعل المستخدمين أكثر ارتباطًا به في المهام اليومية.
تم نسخ الرابط