天津大学发布中国首个脑机接口开源软件平台 MetaBCI 研究成果
近日,天津大学神经工程团队在数学与计算生物学领域SCI一区TOP期刊《Computers in Biology and Medicine》上发表论文,介绍了中国首个脑机接口开源软件平台MetaBCI的技术架构与实现方法。
https://www.sciencedirect.com/science/article/pii/S0010482523012714?via%3Dihub
据介绍,MetaBCI针对BCI领域数据分布散乱、算法复现困难、在线系统效率低的问题,规范了BCI数据结构与预处理流程、开发了通用的算法框架、利用了双进程和双线程提高在线实时效率,有助于降低构建脑-机接口系统的技术门槛,减少研发成本,促进转化落地。
MetaBCI由离线分析模块Brainda、刺激呈现模块Brainstim和在线数据流模块Brainflow三大部分构成,提供了面向BCI软件层面全链条开发的解决方案。
- 面向离线分析需求,Brainda统一了现有公开数据集接口,优化了脑电数据读取、处理流程,复现多种主要BCI数据分析及解码算法,以此提高研究者的算法开发效率;
- 面向刺激呈现需求,Brainstim提供了简洁高效的范式设计模块,可快速创建脑机接口范式刺激界面;
- 面向在线开发需求,Brainflow利用双线程、双进程编程方法实现了实时高速的数据读取、数据处理、结果反馈等功能,帮助开发者轻松搭建脑机接口在线实验系统。
当前,MetaBCI平台包含软件代码共386个类和函数,完成技术说明手册5万多字,同步更新英文API网页(metabci.readthedocs.io/),平台共兼容17种BCI公开数据集,涵盖16种数据分析方法和55种脑机解码模型。
相较于现有的脑机接口软件工具包,MetaBCI基于开源语言Python编写,并且能够涵盖脑机接口全链条功能。MetaBCI完全打通了脑机接口软硬件开发与设计链路,可为脑机接口在科学研究、医疗康复、娱乐生活、特种控制等领域的应用提供重要支撑,持续推动新一代脑机智能快速发展。
MetaBCI软件代码开源链接:https://github.com/TBC-TJU/MetaBCI

低调大师中文资讯倾力打造互联网数据资讯、行业资源、电子商务、移动互联网、网络营销平台。
持续更新报道IT业界、互联网、市场资讯、驱动更新,是最及时权威的产业资讯及硬件资讯报道平台。
转载内容版权归作者及来源网站所有,本站原创内容转载请注明来源。
- 上一篇
大模型评测体系“司南” (OpenCompass2.0) 发布
上海人工智能实验室科学家团队正式发布了大模型开源开放评测体系“司南” (OpenCompass2.0),用于为大语言模型、多模态模型等提供一站式评测服务。 司南OpenCompass2.0评测体系官网:https://opencompass.org.cn/GitHub主页:https://github.com/open-compass/OpenCompass/ 据介绍,“司南”全面量化模型在知识、语言、理解、推理和考试等五大能力维度的表现,评测榜单涉及的大语言模型和多模态大模型超过150个,客观中立地为大模型技术的创新提供坚实的技术支撑。截至目前,已有包括Meta、阿里巴巴、腾讯、百度等30余家国内外企业和科研机构采用“司南”助力开展技术研发。 OpenCompass2.0 对过去一年来主流开源模型和商业API模型进行了全面评测,分析结果显示,GPT-4 Turbo在各项评测中均获最佳表现,智谱清言GLM-4、阿里巴巴Qwen-Max、百度文心一言4.0紧随其后;大语言模型整体能力仍有较大提升空间,复杂推理相关能力仍是短板;中文场景下国内的模型更具优势,与此同时,开源模型进步很快,以较...
- 下一篇
AI2 开源新 LLM,重新定义 open AI
艾伦人工智能研究所(Allen Institute for AI,简称 AI2)宣布推出一个名为 OLMo 7B 的新大语言模型,并开源发布了预训练数据和训练代码。OLMo 7B 被描述为“一个真正开放的、最先进的大型语言模型”。 AI2 是由已故的微软公司联合创始人保罗-艾伦(Paul Allen)于 2014 年在西雅图创办的一家非营利组织。该组织表示,他们开源 OLMo 模型旨在让 AI 研究社区充分了解最先进的大语言模型(LLM),从而推动自然语言处理的发展,并以科学的方式正视现有 LLM 存在的问题。 “通过向公众完全开放 OLMo 及其训练数据,AI2 在协作构建世界上最好的开放语言模型方面迈出了一大步。” OLMo 框架具有一套完全开放的 AI 开发工具,包括: 完整的预训练数据:该模型建立在 AI2 的 Dolma 语料库上,该语料库具有三万亿个用于语言模型预训练的 token 开放语料,包括生成训练数据的代码。 训练代码和模型权重: OLMo 框架包括 7B 规模的四个模型变体的完整模型权重,每个模型至少训练有 2T token。提供了推理代码、训练指标和训练日志。 ...
相关文章
文章评论
共有0条评论来说两句吧...