在4月18日举办的2024中国生成式AI大会上,李未可科技正式发布为眼镜等未来终端定向优化的自研“WAKE-AI ”多模态大模型。
该模型围绕GPS轨迹+视觉+语音打造新一代LLM-Based的自然交互,同时在多模态问答技术的加持下,具备文本生成、语言理解、图像识别及视频生成等多模态交互能力, 能实现所见即所问、所问即所得的精准服务。此外,WAKE-AI还融合了人类意图理解、长期记忆机制、情感大模型及TTS 克隆,可以为用户提供超拟人的情感陪伴服务。
为保证实时交互场景的智能性及响应速度 ,WAKE-AI使用了MOE架构,FlashAttention混合精度训练、知识蒸馏等技术大幅降低算力需求跟计算时间。该模型针对眼镜端用户的使用方式、场景等进行了优化,语音返回速度能做到<500ms以内,语音唤醒准确度>90%,ASR字错率低于2%,可以为用户提供户外运动、文化旅行、日程管理及实时翻译等多个室外场景的多模态AI服务。
据悉,李未可将于近期正式发布搭载WAKE-AI能力的新终端,从室外场景切入为用户提供更智能、更全面的AI+服务。李未可科技合伙人&AI负责人古鉴表示,WAKE-AI将逐步开放平台能力,便于更多企业及开发者调用WAKE-AI能力,共建AI+硬件生态。
投稿/爆料:tougao@youxituoluo.com
稿件/商务合作: 六六(微信 13138755620)
加入行业交流群:六六(微信 13138755620)
元宇宙数字产业服务平台
下载「陀螺科技」APP,获取前沿深度元宇宙讯息