随着生成式人工智能的蓬勃发展,大语言模型(LLM)正成为人工智能领域的核心技术,推动了 AI 编程、智能客服、AI 办公等应用场景的落地。然而,这些技术通常依赖强大的云计算资源,而将其扩展到端侧设备需要克服计算能力、延时和功耗等众多挑战。乐鑫信息科技凭借其领先的无线 SoC 技术,为这一挑战提供了解决方案。
卓越的无线
连接性能
高速、稳定
的云端连接
强大的边缘
处理能力
完善的功耗
管理策略
丰富的开源
开发资源
推荐芯片
ESP32-S3
- 高集成度 2.4 GHz Wi-Fi 和 Bluetooth 5 (LE) SoC
- 双核处理器,主频高达 240 MHz, 内置 512 KB SRAM
- 支持 AI 加速,单芯片实现本地语音唤醒和识别
- 高度集成,专为 AIoT 市场打造
ESP32-P4
- RISC-V 双核处理器,主频高达 400 MHz
- 丰富的 HMI 接口,打造高清屏显和摄像头应用
- 硬件级媒体编码与压缩技术(JPEG、MJPEG、H.264)
- 支持以太网和 SDIO Host 3.0,以实现高速连接
- 低功耗 Low Power 内核
ESP32-C5
- 增强的连接性能,支持 2.4 & 5 GHz Wi-Fi 6 (802.11ax) 、Bluetooth 5 (LE) 和 Thread/Zigbee
- RISC-V 单核处理器,主频高达 240 MHz,内置 384 KB SRAM
- 硬件级媒体编码与压缩技术(JPEG、MJPEG、H.264)
- 支持从机模式,可作为外部主机的协处理器
端到端解决方案
乐鑫携手火山引擎豆包大模型,致力于为用户提供卓越的端到端解决方案,融合前沿技术,为智能设备注入强大的智能内核
方案优势
流畅的豆包 AI 模型加持
乐鑫方案搭载了流畅的豆包 AI 模型,其先进的算法架构和海量数据训练,赋予设备深度理解自然语言、精准生成语音/文字形式的回答能力。无论是复杂的问题解答、创意内容生成,还是智能对话场景,豆包 AI 模型都能提供流畅、准确且富有洞察力的交互体验,让智能设备真正成为用户的智慧伙伴。
流畅的豆包 AI 模型加持
乐鑫方案搭载了流畅的豆包 AI 模型,其先进的算法架构和海量数据训练,赋予设备深度理解自然语言、精准生成语音/文字形式的回答能力。无论是复杂的问题解答、创意内容生成,还是智能对话场景,豆包 AI 模型都能提供流畅、准确且富有洞察力的交互体验,让智能设备真正成为用户的智慧伙伴。
强效果
RTC 全双工 AI 交互,打造实时对话新体验
高性能
支持麦克风阵列降噪算法与高效本地语音唤醒
易开发
深度集成豆包大模型,端到端开发支持
高性价比
单芯片即可实现包含低功耗+高性能+佳体验的 AI 对话效果
开发资源
订阅乐鑫动态
及时获取有关 AIoT 行业创新、产品上市、市场活动、文档更新、PCN 通知、软硬件公告等最新信息。
Copyright © 2024 乐鑫信息科技(上海)股份有限公司。版权所有。
语言
- English
- 简体中文