نظارات ميتا الذكية تتمتع بميزات بحث مرئية مدعومة بالذكاء الاصطناعى.. التفاصيل
نظارات Meta الذكية على وشك الحصول على بعض الترقيات القوية بفضل التحسينات التي تم إدخالها على مساعد الذكاء الاصطناعي للشبكة الاجتماعية.
تضيف الشركة أخيرًا دعمًا للمعلومات في الوقت الفعلي، وتبدأ في اختبار إمكانات “متعددة الوسائط” الجديدة التي ستسمح لها بالإجابة على الأسئلة بناءً على بيئتك، وتقارير engadget.
حتى الآن، كان لدى Meta AI “موعد نهائي للمعرفة” وهو ديسمبر 2022، لذلك لم تتمكن من الإجابة على أسئلة حول الأحداث الجارية، أو أشياء مثل نتائج المباريات أو ظروف حركة المرور أو الاستعلامات الأخرى التي قد تكون مفيدة بشكل خاص أثناء التنقل.
لكن هذا تغير الآن، وفقًا لما قاله مدير التكنولوجيا في Meta CTO Andrew Bosworth، الذي قال إن جميع نظارات Meta الذكية في الولايات المتحدة ستكون الآن قادرة على الوصول إلى المعلومات في الوقت الفعلي، وأضاف أن التغيير مدعوم “جزئيًا” بواسطة Bing.
وبشكل منفصل، بدأت شركة Meta في اختبار إحدى القدرات الأكثر إثارة للاهتمام لمساعدها، والتي تسميها “الذكاء الاصطناعي متعدد الوسائط”. تسمح الميزات، التي تمت معاينتها لأول مرة أثناء Connect، لـ Meta AI بالإجابة على الأسئلة السياقية حول بيئتك والاستعلامات الأخرى بناءً على ما تنظر إليه. من خلال النظارات.
ويمكن للتحديثات أن تقطع شوطًا طويلًا نحو جعل Meta AI تبدو أقل لفتًا للانتباه وأكثر فائدة، وهو ما كان أحد أكبر شكواي في مراجعتي الأولية للنظارات الذكية الرائعة. لسوء الحظ، من المحتمل أن يستغرق الأمر بعض الوقت قبل أن يتمكن معظم الأشخاص الذين يستخدمون النظارات الذكية من… الوصول إلى وظيفة الوسائط المتعددة الجديدة.
وقال بوسورث إن النسخة التجريبية للوصول المبكر ستكون متاحة فقط في الولايات المتحدة “لعدد صغير من الأشخاص الذين اختاروا الاشتراك” في البداية، ومن المفترض أن يأتي الوصول الموسع في وقت ما في عام 2024.
وشارك مارك زوكربيرج بعض مقاطع الفيديو حول الإمكانيات الجديدة التي تعطي فكرة عما قد يكون ممكنًا، وبناءً على المقاطع يبدو أن المستخدمين سيتمكنون من التفاعل مع الميزة من خلال الأوامر التي تبدأ بـ “Hey Meta، look and say” أنا “، على سبيل المثال. يطلب زوكربيرج من Meta AI إلقاء نظرة على القميص الذي يحمله ويطلب اقتراحات بشأن السراويل التي قد تتطابق معه. كما شارك أيضًا لقطات شاشة تُظهر Meta AI وهو يتعرف على صورة قطعة من الفاكهة.
في مقطع فيديو تم نشره على Threads، قال Bosworth إن المستخدمين سيكونون قادرين أيضًا على سؤال Meta AI عن محيطهم المباشر بالإضافة إلى المزيد من الأسئلة الإبداعية مثل كتابة التسميات التوضيحية للصور التي التقطوها للتو.