清华大学天津电子信息研究院
  • 首 页
  • 研究院概况
    研究院概要 研究院宗旨·业务范围 研究院学科·人才优势 研究院建设模式 研究院研发环境 中新生态城环境
  • 热点新闻
  • 实验平台
    高端光电子芯片创新中心 电子综合检测中心 人工智能大数据中心 多模态AI数据平台
  • 项目孵化
    孵化成功项目 正在孵化项目 准备孵化项目 部分待孵化项目
  • 项目公司
  • 投资基金
  • 招贤募才
    职位招聘 人才战略
  • 联系我们
  • 高端光电子芯片创新中心
  • 电子综合检测中心
    • MMIC综合实验室
  • 人工智能大数据中心
    • 数据资源申请流程
  • 多模态AI数据平台
    • ICIP挑战赛
当前位置 : 首页 - 实验平台 -
电子综合检测中心配备了世界顶级电子信息检测所需要的仪器和设备,拥有完善的静电防护设施。可以满足电子信息硬件检测的绝大部分需求,包括模拟电路测试、数字电路测试、射频/微波/毫米波器件检测,还包括无线通信系统测试、电路设计及仿真、系统设计及仿真等。
中心分为常规电子(低、中频测试区)、高频、超高频、光学平台、探针台、电子装联等试验区。可同时提供63个电子检测工位,包括3间独立的电子检测实验舱。

实验室布局图

单片微波集成电路(MMIC)综合实验室
MMIC即微波单片集成电路,是高精尖国防及民用设备的重要支柱,广泛用于各种先进的战术导弹、电子战、通信系统,陆海空基的各种先进的相控阵雷达(特别是机载和星载雷达),在民用商业的移动电话、无线通信、个人卫星通信网、全球定位系统、直播卫星接收和毫米波自动防撞系统等方面已形成正在飞速发展的巨大市场。因为其频率高、封装效应大、设计和测试难度高,成为当前微电子领域攻克的重点难关之一,MMIC测试实验平台依托清华大学强大学术力量,结合普源精电等国内外顶尖科学仪器公司实际工程经验,在生态城政策大力支持下,面向全社会提供从建模、设计到仿真、测试的咨询服务。软件方面,实验室拥有业界领先的建模软件可提供半导体器件的定制化建模服务;硬件方面,实验室拥有8寸探针台、精密半导体参数测试仪、110GHz毫米波矢量网络分析仪用于完成直流IV/CV,交流参数的测试。

1半导体器件定制化建模服务
     Cell Evaluation & Device
     模型类型:
    物理模型、行为模型、经验模型、紧凑型模型
     半导体材料类型:
    GaAs砷化镓、GaN氮化镓、InP磷化铟、SiGe硅锗
     器件类型:
    HBT、HEMT、MESFET
     模型种类:
    小信号、非线性
     频率范围:
    DC~110GHz
      能够提取高速数字、模拟和功率射频主流应用软件中所使用的精确而紧凑的模型,对CMOS、Bipolar、砷化镓(GaAs)、氮化镓(GaN)等其他半导体器件进行提参建模。
Output:PDK Model文件
2MMIC芯片、模块设计及仿真
     Design & simulation
     芯片类型包括:
    功放、低噪放、开关、混频器、调制器芯片等
     模块类型包括:
    T/R收发组件、变频组件
     设计步骤包括:
    电路设计、电磁分析、热分析、封装仿真
      通过利用先进的EDA工具,创建可靠的设计方案,使设计一次性成功通过测试并实现高产出率。利用所有主要 MMIC 代工厂提供的完整并且持续更新的工艺设计套件(PDK),在仿真软件中进行 MMIC原理图设计、高良率优化等前端设计


      除此之外还可提供精确的电路行为模型提供给客户的系统设计部门评估芯片性能对子系统/系统的功能影响。
Output:Circuit Design & EM Field Analysis
3微波毫米波测试服务
     Wafer Test & Measurement
     应用领域:
    5G移动通信、雷达、制导、遥感技术、射电天文学、临床医学、波谱学、汽车电子及自动驾驶、手势互动
    识别、工业检测等
     测试功能:
    直流IV/CV测试,频谱测试、单端和差分S参数、功率、噪声系数、非线性X参数、负载牵引等
     测试条件:
    连续波、脉冲、高低温
     频率范围:
    DC ~ 110GHz
     温度范围:
    -60℃~+300℃
      8寸探针台、精密半导体参数测试仪、110GHz毫米波矢量网络分析仪均为领先行业的测试测量设备,为广大行业用户提供可溯源的精确测量结果
4芯片级功能验证
     Function Verification
		            			
     系统、子系统中各个芯片和功能模块的实现时间节点或许不同,当实际的芯片研制生产出来之后,设计师需要检测芯片性能,通过我们的验证测试环境,系统设计师能够将获得的芯片时域及频域参数输入到数字化样机的仿真环境当中,分析经过实际测试出来的芯片性能对模块、子系统及系统的性能影响,在实际的设计过程当中,这种半实物仿真的方法被广泛的采用,可以迅速定位每个芯片和功能模块参数变化对系统指标的影响。 利用高性能示波器验证分析时域参数,利用矢量信号分析仪进行频域参数的分析。
					
实验室技术文档下载
依托待孵化的各种传感芯片、传感网络技术、人工智能技术、智能设备大数据等科技成果,布局智能家居领域。
智能家居研发中心将融科技成果研发、产品开发、产业应用和家居生活新体验于一体,使得众多科技成果有一个明确方向性载体(应用领域),推动智能家居产业发展和传统家具产业的更新换代以及国际竞争力。
计划联手国内外龙头企业,建立产业联盟。本计划已得到长虹集团和海尔投资的认可,年后将进一步落实合作模式,扩大合作企业和领域。
智能家居研发中心计划选址在启发大厦主楼四楼,占地面积约为700平方米,分为研发区、研讨区、信息收集及策划区、智慧生活体验区和智能办公区。即将涵盖所有世界级领先智能家居产品,让参观者全方位体验未来科技带来的方便与快捷。

实验室布局图

平台介绍
随着互联网、大数据、云计算和物联网等技术的不断发展,人工智能正引领着新一轮的科技革命和产业变革。2017年7月国务院发布《新一代人工智能发展规划》,提出加快建设创新型国家和世界科技强国的发展战略。清华大学积极响应国家人工智能重大战略需求,充分依托清华大学优势学科,围绕增加人工智能创新的源头供给,在前沿基础理论、关键共性技术、基础平台、人才队伍等方面强化部署,支持产业创新和应用创新,打造全球领先的人工智能开放平台。
平台功能
平台具有高性能的物理资源配置,可部署各类人工智能算法框架,具有大数据数据集、深度学习训练计算、开发者SDK调用、图像语音识别服务、人工智能行业应用解决方案五大功能板块。
平台将为社会提供开放服务,面向智慧城市、智慧医疗、智慧交通、大数据挖掘、国防军事等领域提供教育教学、科学研究和产品孵化的智能计算环境。
平台开放技术支持
平台依托清华大学电子工程系媒体大数据认知计算研究中心、深度学习技术与应用国家工程实验室、智能技术与系统国家重点实验室和危爆物品扫描探测国家工程实验室,提供全球领先的视频、图像、语音和NLP等多项人工智能技术,共享人工智能领域最新科技成果和解决方案。
技术应用场景
目前,平台为智能零售、终端、金融、广告、安防、教育、军事等各行各业,结合其实际业务场景提供了丰富的行业解决方案。
平台优势
人工智能应用系统

音频事件监测系统

在日常生活中,声音无处不在,不同的声音蕴含了不同的信息。音频事件就是指对人而言有意义的声音信号片段,例如语音、笑声、音乐声、打闹声等。对于不同的场景,我们关注的音频事件也会有所不同。
音频事件检测系统可以从一段音频文件中识别出目标音频事件,给出各个音频事件的开始和结束时间,并给出该段音频的所属类别。例如,检测音频中的枪击声、婴儿哭声,或者检测到例如做饭、看电视等家庭活动。

技术优势

由于音频事件种类繁多,难以用统一的声学模型进行描述,因此本系统采用卷积神经网络、卷积循环神经网络以及基于多状态跳转模型的卷积循环神经网络,对不同类别的音频事件进行检测。
在使用相同的数据集进行训练和测试的条件下,本音频事件检测系统的混合神经网络架构下的音频事件检测系统达到了与DCASE-2017国际评测比赛任务2中第二名队伍的同等成绩,准确率达90%以上。

应用场景

● 安全监控

目前,安全监控通常采用视频监控的方式。但视频监控在弱光照情况下存在明显不足,将音频监控和视频监控结合起来检测异常事件的发生,可以弥补视频监控在光照、清晰度等限制下的缺陷。此外,对于枪击、爆炸等安全性事件,利用音频监控技术明显优于单纯视频监控。

● 智能家居

智能家居作为近年来受到广泛关注的人工智能应用技术,能够实现多角度、全方位的信息交互,提供设备控制、环境监控等多种功能,增强住宅的安全性、便利性和实用性。通过音频事件的分类和检测,可以为家电控制、照明控制、防盗报警等智能家居装置提供环境感知信息。

声纹识别系统

声纹识别,也称说话人识别,是一种通过语音自动判断说话人身份的生物特征识别技术。由于每个人的声道、口腔和鼻腔等生理特征差异,以及语言、教育背景和生活习惯等社会因素影响,使得每个人的发音具有个体差异性。基于这种个体差异性,我们通过语音就能准确判断“来者何人”,即“听音识人”。
虽然声纹不如人脸、指纹、掌纹和虹膜等生物特征那么直观,但声纹识别系统具有活体验证、用户接受度高、交互自然和成本低廉等特点,已在诸多领域广泛应用。

技术优势

在数据层面,采用信道软仿真、混响生成和噪声叠加等数据增强方法,通过增加训练数据的多样性,提升了系统的普适性;
在特征层面,基于端到端(E2E)深度神经网络、注意力机制(Attention)和联合优化等深度建模方法,剥离语音内容、语种、性别,信道干扰和噪声污染等影响,提取更有利于声纹识别的低维嵌入特征,显著提升了系统的性能;
在决策层面,利用局部成对线性鉴别分析(LPLDA),多任务学习对抗生成网络(MTGAN)和多任务学习鉴别式概率线性鉴别式分析(MOPLDA)等投影分类技术,进一步提升系统的鲁棒性、适应性和准确性。
本项技术通过私有云服务方式,提供快速、可靠的声纹识别服务。

应用场景

	远程认证:为银行、证券等要求较高的机构,提供安全保证服务;
	公安司法:为电信诈骗,电话勒索或人身攻击等刑事、民事案件提供线索或物证;
	国家安全:对危害国家、社会安全的重点人员进行监控;
	访问控制:门禁考勤、证件防伪等;
	个性化服务:便于大型呼叫中心等,为重点客户提供人性化服务。            			
	            		

图像释意系统

图像释意是图像分析的一种典型任务,可实现对给定图像生成语言描述。本系统接受输入的自然图像,并自动生成对图像中场景、物体及其相互关系的描述。
本图像释意系统采用深度学习技术,创新性地融合了图像注意力模型和图像属性模型,以产生对于图像更为准确而又能符合人类语言表述习惯的图像描述。在国际公开数据集COCO上的主要指标超过了已有的非强化学习模型。

技术优势

该系统中融入了堆叠注意力模型和自适应注意力模型以实现更为准确的描述。堆叠注意力模型是对给定的物体找到与之匹配的属性,作为该物体的补充信息,然后将两者拼接起来送入到注意力模型和解码器生成图像释意。自适应注意力法主要是在生成图像释意之前,首先预测图像物体和图像属性两者的相对权重,然后再用图像物体注意力模型和图像属性注意力模型分别确定哪个属性或者哪个物体更加重要。

应用场景

该系统通过自动产生对于图像的描述可以提供和语义分析相关的功能。在诸如微信等社交软件接受到图像时可以通过该系统将图像的内容用语言的方式进行表述,还可以在微博等应用中自动实现为图像配文字操作,应用在穿戴式设备上可以为诸如盲人特殊人群提供给对于场景的描述,也可以作为搜索引擎的前端实现更加符合图像语义的图像检索。

医学图像辅助诊断

采用先进高效的深度学习人工智能图像识别技术,赋予机器对医学图像的辅助诊断功能。使机器能准确判断X光胸片、CT片、眼底照片等医学图像中病变的程度,乃至检测病灶位置。
本项技术可完成基本的筛查和检测任务,让医学工作者专注于更高层次的诊断分析和医学研究。

技术优势

    • 依托清华大学电子系媒体大数据认知计算研究中心,采用最前沿的深度学习图像识别技术。
    • 准确率达到平均医生以上水平,秒量级给出检测结果。
    • 采用迁移学习,基于少量样本即可形成有效算法。
    • 针对医学需要,可完成分类、检测、分割等多种任务。
    • 系统在运行时根据实际病例,可继续在线学习和提升算法。
    • 部署灵活,支持与医院系统集成、云服务、嵌入式等多种形式。
	            		

应用场景

该系统通过自动产生对于图像的描述可以提供和语义分析相关的功能。在诸如微信等社交软件接受到图像时可以通过该系统将图像的内容用语言的方式进行表述,还可以在微博等应用中自动实现为图像配文字操作,应用在穿戴式设备上可以为诸如盲人特殊人群提供给对于场景的描述,也可以作为搜索引擎的前端实现更加符合图像语义的图像检索。
与清华长庚医院建立合作关系,正在试用推广。

语音识别与分析软件

本软件包括使用训练好的模型完成语音识别和分析的任务,包括音频片段切分、话者分离和标识、语音识别、语速判断、关键词定位、情绪判断。本软件还包括声学模型和语言模型的训练,这样能针对特定任务和场景来训练和优化新模型;通过数据增强,语音特征归一化等技术,提升了在噪声环境下的识别效果;通过半监督学习模型与算法提高了机器的学习效率。
目前软件已经封装成软件开发包(SDK)支持私有化部署,也可通过webAPI方式进行云端调用。

技术优势

本软件集成了模型的训练和应用,能够针对特定任务调整模型。在训练和应用时对特征进行了直方图归一化操作,针对训练数据做了数据增强,有效提升了在噪声环境下的识别效果。服务器端能够对任务进行管理,并支持集群,增加了系统吞吐量的同时,提升了系统稳定性。
测试了三家单位的语音识别引擎对11个语音文件(共计约5小时)的识别错误率,如右图所示。纵坐标表示识别错误率,横坐标表示在11个文件上的三家单位的软件性能。可以看出,本软件的性能好于市场同类产品。

应用场景

语音是人类交流的重要载体,语音智能处理蕴含巨大市场价值。随着技术的逐步成熟,语音市场需求在不断膨胀,应用场景在不断扩大。
语音识别与分析技术辐射面非常广阔,相关行业应用大致分为2B/2G和2C两个方向。2B/2G的代表领域包括呼叫中心、广电、安防、医疗、金融、教育等。2C的代表领域包括智能家居、智能车载、可穿戴设备、无人驾驶、虚拟助理、家庭机器人等。

人脸/人像识别系统

动态人脸/人像识别系统

该系统主要用于快速身份鉴别,从布控网络摄像头中提取场景中的人脸或行人图像并提取特征,在人脸/人像数据库中查找符合特征的人员身份。系统支持1:1人证合一照片比对、1:N大库查询、M:N动态布控、视频流图像比对等多种识别对比形式。

人脸/人像属性分析系统

系统支持高清视频采集、压缩、分发与存储;可以实现人脸/人像检测、跟踪与包括性别、年龄、服装、体型体态等的属性分析。适用场景包括公检法机关、集会场所、交通运输部门、大型超商、娱乐服务场所、教育、金融、社保等领域。

功能

技术

    • 人脸检测技术,在国际权威的人脸检测FDDB库上的测试结果,检测性能位居当前国际第一(2017.1)。
    • 人脸识别技术,在国际权威的1:1测试库LFW库上实现超过99%的识别准确率,位于本领域顶级水平。
    • 2017年12月,人脸识别团队在国际权威1:N人脸识别测试库MegaFace上,取得一项第一、一项第二的结果。
    • 人像识别领域,清华团队贡献ReID领域三个大型公开图像数据集,Market-1501及视频数据集MARS,iLID-VID下载超过3700次;行人再识别技术位于国际先进水平。数十篇论文覆盖计算机视觉、人工智能顶级期刊(TPAMI、TIP)、顶会(ICCV、CVPR、ECCV)。
    • 2005年由公安部出入境管理局主持集成清华大学人脸技术,世界上首次在我国出入境旅客最多的深圳罗湖口岸开通“旅客自助查验通道”,验放旅客超过数亿人次。
    • 2016 年全国两会安保项目。
    • 湖南省公安厅机场公安局黄花机场项目。
    • 天津市地铁列车人脸识别项目。
    • 权健集团人脸识别考勤系统。
    • 国家金税三期工程税务实名制人脸识别项目。
    • 厦门金砖五国会议酒店人脸识别陌生人报警系统。
    • 2017 天津全运会动态人脸识别系统。
	            		
人工智能课程——媒体与认知

授课目标:

通过对媒体信息、认知科学及信号处理领域开展具体深入的研究及实践,使学生在充分了解领域知识的前提下,用文、理、工相融合的眼光看待其发展历史、研究现状、最新研究进展以及未来课题,为今后开展高水平、创新性研究铺平道路。

实验内容:

媒体是信息的载体,认知是人脑对信息的处理方式,媒体与认知实验课程构建了多个系内最新科研转化来的实验平台,使学生进一步理解和掌握媒体与认知之间相互的作用与关系。
本课程全部是在电子系的人工智能开放创新平台上实现的,所有与本课程相关的数据资源、技术资源、应用资源都免费开放给学生们学习和使用。学生在这些资源的支持下,可以快速高效地学习最新的人工智能技术及其应用。

学生自主提出的创新项目

借助人工智能开放创新平台强大的技术支持和计算能力,学生独立提出并实现超过300个媒体认知实验项目,许多学生在获得学分后仍然持续进行探索和研究,许多项目最终转化为国创、北创、挑战杯项目。
清华大学天津电子信息研究院
人工智能大数据中心资源申请流程说明

一、资源申请流程图

二、资源使用流程说明

1、老师申请步骤。填写《华慧云服务申请表》(附件一),并按照实际需求将申请表提交审批。一是教学项目。申请老师向主管教学的系领导报批,系领导的短信、微信、邮箱等形式的批复截图或纸质批复材料均可作为审批依据。老师们将申请表和批准截图发送至项目管理员处。二是科研项目。申请老师按项目类别填写对应的合同模板,系办科研秘书初审,初审通过后报清华大学科研院审批,学校审批后签订合同;同时,申请老师以微信、邮箱或纸质等形式将申请表交至项目管理员处,平台接到申请材料后即安排工程师与老师进行需求对接,做好资源开通的准备。三其他项目。该类项目系指除教学类和科研类之外的项目,申请老师直接联系中心项目管理员,明确相关需求和服务时间节点,开通资源进行服务。
2、平台服务步骤。接到需求表后,工程师根据需求情况,做好需求对接和平台调试工作,按照约定时间开通资源。管理员逐步完善技术服务合同签订等相关手续。

三、服务定价表

服务定价表详见附件二

四、联系人及方式

五、附件
附件一下载 附件二下载

附件一

附件二

高端光电子芯片创新中心
www.hchiptech.com
中心简介
高端光电子芯片创新中心是清华大学天津电子信息研究院三大平台之一,由天津华慧芯科技集团有限公司全面负责运营。中心位于启发大厦一层超净实验室,面积约1200㎡,其中百级黄光区100㎡。中心拥有完备的光电子器件研发设备,支持III-V族半导体、硅基半导体、二维材料、柔性材料、金属材料等光电子芯片的研发,并具有多个纳米尺度的特色工艺模块和先进表征模块;配套的测试实验室提供国际领先的芯片测试分析技术。中心在面向支持天津电子院项目孵化的同时,面向社会开放,提供纳米尺度下光电子芯片制备工艺和测试分析的解决方案,以提升我国光电子芯片的研发水平和产业化进程。

实验室布局图

中心概况
中心设备总体规划超过2亿元。引进目前世界最先进的电子束直写设备(JEOL JBX-9500 FS),可直写10纳米量级的图形。中心拥有当今最先进的聚焦离子束系统、扫描电子显微镜,同时还配备了薄膜沉积、图形刻蚀、研磨抛光、划片解理等光电芯片工艺设备,达到了微纳加工、结构分析、材料表征、芯片研发的世界顶级水平。
中心主要设备
若干工艺模块
平台简介
清华大学多模态AI数据平台是一项不断丰富的研究项目,旨在为中国及世界各地的研究者及感兴趣的人员提供易于访问、边界清晰、内容丰富的高质量多模态AI数据。在平台中,用户可以实现多模态AI数据的分享与下载、相关算法的分享与评测。平台将致力于通过各类活动搭建学术界与产业界沟通的桥梁,推动产学研有序发展。
数据集

COSD: A Challenging Object Segmentation Dataset

Overview
The COSD is a large-scale RGB-D dataset aiming to address the challenging object segmentation problem. This dataset contains 4,179 RGB-D images from 14 scenes with three semantic classes in terms of highly reflective objects, highly transparent objects and background. We use an iPad 2018 equipped with a Structure Sensor to capture these RGB-D images. For challenging objects, we consider common types of them (mainly including glass products, mirrors, plastic and metal) with different size, shape and color. For scenes, the COSD dataset contains 14 unique scenes (e.g. livingroom, bathroom, office, etc). Finally, we use Labelme(https://github.com/wkentaro/labelme) to annotate these images manually. Some demos in our COSD dataset are shown in Fig.1.
Fig.1. Demos of the COSD datset. The Depth image is colorized for visualization. The black, green and red in the semantic map represent the background, highly reflective and highly transparent objects respectively.
Leaderboard
Download Link:
BaiDu Cloud: https://pan.baidu.com/s/1_6futSh0YQ6l-4aR890VFw       Password: 6q88
Google Drive: https://drive.google.com/file/d/1IsRGO2HyRPwDcLR0euZgppB13T0pvV3F/view?usp=sharing

You can download the training set of the COSD via the proposed links. Afterdownloading the train.zip file, please send an email at wangguijin@tsinghua.edu.cn to get the password of this file. The test set is not available now. 
Attention please.
§ The COSD dataset contains 8,060 RGB-D images (4,421 for training and 3,639 RGB-D images for test).
§ Some depth values are missing due to the RGB-D sensor. The depth is saved as .png image in millimeter.
§ We also provide the hha images caculated from the raw depth and camera parameters.
§ In the semantic mask, 0, 1, 2 represent the background, highly transparent objects and highly reflective objects respectively. 

Citing the dataset
Coming soon. 

Contact

Team:

Guodong Zhang; Guijin Wang; Zhibin Xiao; Yang Li; Wenming Yang; Sifan Yang; Jing-hao Xue Department of Electronic Engineering, Tsinghua University, Beijing 100084, China For questions about the dataset, contact Guijin Wang: wangguijin@tsinghua.edu.cn

License This COSD dataset is made freely available to academic and non-academic entities for non-commercial purposes such as academic research, teaching, scientific publications, or personal experimentation. 1.Although every effort has been made to ensure accuracy, we (Department of Electronic Engineering, Tsinghua University) do not accept any responsibility for errors or omissions. 2.That you include a reference to the COSD Dataset in any work that makes use of the dataset. 3.That you do not distribute this dataset or modified versions. 4.That you may not use the dataset or any derivative work for commercial purposes as, for example, licensing or selling the data, or using the data with a purpose to procure a commercial gain. 5.That all rights not expressly granted to you are reserved by us (Department of Electronic Engineering, Tsinghua University).
建设中......
研究院概况 | 热点新闻 | 研发平台 | 项目孵化 | 项目公司 | 人才招聘 | 联系我们
版权所有(C) 清华大学天津电子信息研究院津ICP备15006202号