类脑智能

通向人工智能的终极解决方案

类脑智能是受大脑神经运行机制和认知行为机制启发,以计算建模为手段,通过软硬件协同实现的机器智能,让机器实现低能耗、高功效的计算,甚至智能水平上达到或超越人,是通向通用人工智能的最可能路径。

自然界有许多体形很小的昆虫,能够实时跟踪物体、导航和躲避障碍物,甚至推理、决策、具有意识,相比之下人脑结构更复杂、功能更加强大。

类脑芯片作为类脑智能的关键部分,借鉴生物大脑的信息处理方式,以神经元与神经突触为基本单元,模拟生物大脑神经元的功能特性、信号传递和学习方式,能够让计算机在低能耗情况下完成感知、学习、记忆、决策等任务,让智能更聪明。

人工智能发展遇到瓶颈

硬件瓶颈

  • 晶体管的发展逼近物理极限,摩尔定律即将失效
  • 面对海量数据,传统存算分离的冯诺依曼架构在数据搬运浪费了大量的功耗和成本,导致功耗高、延时高
  • 端侧算力不足,高算力场景依赖于云计算,数据从端到云的传输消耗了大量的功耗和成本

算法瓶颈

  • 数据量大,对存储资源的需求高
  • 网络规模大,对计算资源的需求高,功耗大
  • 弱人工智能应用有限,只能在部分预先定义的场景内执行有限任务

SynSense时识科技
类脑芯片的特点

全新的运算机制

基于稀松动态变化信息的
触发式运算

全新的芯片架构

全并行运算,
分布式算子/存储

全新的算法支持

基于SNN网络的时空运算

类脑计算,
后摩尔时代的新型范式

架构与算法的双重突破

传统架构类脑架构
弱智能强智能
冯诺依曼架构全并行
单一传感器多模态
Traditional
Architecture
Weak AI
von Neumann Architecture
Single Sensor
Neuromorphic
Architecture
General AI
Synchronous Parallel Processing
Multimodality Sensor
模型学习驱动的数据智能认知仿生的类脑智能
海量数据、高质量标注可处理小数据、小标注问题
依赖模型、自适应能力弱自适应能力强,无监督学习
计算资源要求高、功耗高计算资源要求少、超低功耗
时序处理能力弱时序性好,解决通用场景问题
模型学习驱动的数据智能
海量数据、高质量标注
依赖模型、自适应能力弱
计算资源要求高、功耗高
时序处理能力弱
认知仿生的类脑智能
可处理小数据、小标注问题
自适应能力强,无监督学习
计算资源要求少、超低功耗
时序性好,解决通用场景问题

类脑智能的优势

事件触发

功耗降低100-1000倍

异步并行

响应延时降低10-100倍

时序相关性好

擅长处理动态信息,维度丰富

通用人工智能

成本降低100倍

持续创新,
端云融合

2021–2022

Sensor Node I

边缘小算力

AI计算节点

智能家居
智能玩具
类脑芯片, XYLO,
2022–2023

Sensor Node II

边缘大算力

智能安防
DYNAP-CNN,
2023

Sensor Fusion

多传感器融合计算

自动驾驶

智能座舱
高速避障
车路协同

无人机
DVS-SLAM,
2023–2024

Edge Cloud

模拟计算、类脑存算一体

AR/VR

机器感知
光流定位
视觉导航
控制

机器人
多核DYNAP, DYNAP-M, XYLO-M,
Close
Back To