در رویداد Google I/O 2025 که روز سه‌شنبه برگزار شد، گوگل از پروژه جدید خود به نام “پروژه آسترا” رونمایی کرد. این پروژه که تجربه‌ای چندوجهی و با تأخیر پایین از هوش مصنوعی را ارائه می‌دهد، توانمندی‌های جدیدی را در بخش جستجو، اپلیکیشن هوش مصنوعی Gemini و محصولات توسعه‌دهندگان طرف سوم به ارمغان می‌آورد.

یکی از ویژگی‌های برجسته پروژه آسترا، قابلیت “جستجوی زنده” در گوگل است. با فعال‌سازی حالت هوش مصنوعی یا استفاده از ویژگی جستجوی بصری Lens، کاربران می‌توانند با فشار دادن دکمه “زنده”، سوالاتی درباره آنچه از طریق دوربین گوشی هوشمند خود مشاهده می‌کنند، بپرسند. پروژه آسترا به‌طور همزمان و با تأخیر بسیار کم، ویدیو و صدا را پخش کرده و به سوالات کاربران پاسخ می‌دهد.

این فناوری که برای نخستین بار در Google I/O 2024 از طریق یک دمو با عینک‌های هوشمند معرفی شد، به عنوان راهی برای نمایش قابلیت‌های هوش مصنوعی چندوجهی تقریباً لحظه‌ای توسط Google DeepMind توسعه یافت. گوگل از همکاری با شرکت‌هایی نظیر سامسونگ و Warby Parker برای تولید عینک‌های هوشمند پروژه آسترا خبر داده، هرچند هنوز تاریخ دقیقی برای عرضه آن‌ها مشخص نشده است.

پروژه آسترا همچنین به توسعه‌دهندگان این امکان را می‌دهد که تجربیاتی را با پشتیبانی از ورودی‌های صوتی و بصری ایجاد کنند. API جدید Live، که رابطی برای توسعه‌دهندگان است، تعاملات صوتی با تأخیر پایین را برای کاربران Gemini فعال می‌کند. به گفته گوگل، این API همچنین امکان شناسایی احساسات را بهبود بخشیده و مدلی هوش مصنوعی را ارائه می‌دهد که به طور مناسب‌تری به واکنش‌ها پاسخ می‌دهد.

از سوی دیگر، قابلیت‌های ویدیویی و اشتراک‌گذاری صفحه به اپلیکیشن Gemini نیز گسترش یافته و در حال حاضر برای همه کاربران قابل دسترس است. پیش از این، این ورودی بصری تنها برای مشترکین پولی در دسترس بود. گوگل با اعتماد به عملکرد پروژه آسترا به عنوان آینده‌ای برای بسیاری از محصولات خود، به دنبال ایجاد یک دسته جدید از محصولات، به ویژه عینک‌های هوشمند، است. هرچند تاریخ ارائه این عینک‌ها هنوز مشخص نیست، اما جزئیات بیشتری درباره طراحی آن‌ها ارائه شده که همچنان در مرحله تحقق است.

تجزیه و تحلیل تصویر با هوش مصنوعی

دیدگاه‌ خود را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

اسکرول به بالا