中国科大在机器学习提高超导量子比特读取效率上取得重要进展

9月3日消息(余予)来自中国科大的消息显示,中国科大郭光灿院士团队近日在机器学习提高超导量子比特读取效率上取得重要进展。该团队郭国平教授研究组与本源量子计算公司合作,在本源“夸父”6比特超导量子芯片上研究了串扰对量子比特状态读取的影响,并创新性地提出使用浅层神经网络来识别和读取量子比特的状态信息,从而大幅度抑制了串扰的影响,进一步提高了多比特读取保真度。

据了解,近些年,国际上分别实现了高保真度的单比特单发读取以及多比特的多路复用式单发读取;然而,由于各种形式的杂散耦合的存在,邻近比特的状态可能会对目标比特的测量结果产生影响,从而降低测量保真度,进而降低量子算法的成功率。随着量子芯片的进一步扩展,为了进一步提高读取保真度,如何解决上述串扰问题将成为研究者们面临的主要挑战。

图1 传统量子比特读取方案以及串扰的影响

为了解决读取串扰的问题,在此之前,国际上其他课题组的主要集中在如何从硬件层面抑制串扰,例如为每一个量子比特的读取腔单独配置一个读取滤波器,或者增大读取腔之间的空间和频域距离;这些方案虽然在一定程度上抑制了串扰,但是都对量子芯片的扩展和集成产生了不利的影响。

图2 第一代“夸父”6比特超导量子芯片结构图

基于以上,郭国平教授研究组与本源量子计算公司合作,通过对量子比特信息提取过程的抽象和模拟,提出一种新的量子比特读取方案:通过训练基于数字信号处理流程构建的浅层神经网络,实现对量子比特状态的精确识别与分类。

研究人员将这一方案应用到本源“夸父”6比特超导量子芯片上,实验发现,新的读取方案不仅有效提升了6比特的读取保真度,而且大幅度抑制了读取串扰效应;同时,由于新方案中的数据处理可以进一步简化为单步矩阵运算,未来可以直接转移到FPGA上,从而实现对量子比特状态的0延时判断以及对量子比特的实时反馈控制。

该方案不仅适用于超导量子计算,也同时适用于其他量子计算物理实现方案。

图3 用于量子比特状态读取与分类的浅层神经网络结构

该成果于近日在国际应用物理知名期刊《Physical Review Applied》上。中科院量子信息重点实验室段鹏博士和陈梓峰硕士为文章共同第一作者,郭国平教授为通讯作者。该工作得到了科技部、国家基金委、中国科学院和安徽省的资助。

论文链接:

//www.memurnet.com/uploadfile/2021/0903/20210903161024386G.024063


企业会员

免责声明:本网站内容主要来自原创、合作伙伴供稿和第三方自媒体作者投稿,凡在本网站出现的信息,均仅供参考。本网站将尽力确保所提供信息的准确性及可靠性,但不保证有关资料的准确性及可靠性,读者在使用前请进一步核实,并对任何自主决定的行为负责。本网站对有关资料所引致的错误、不确或遗漏,概不负任何法律责任。任何单位或个人认为本网站中的网页或链接内容可能涉嫌侵犯其知识产权或存在不实内容时,应及时向本网站提出书面权利通知或不实情况说明,并提供身份证明、权属证明及详细侵权或不实情况证明。本网站在收到上述法律文件后,将会依法尽快联系相关文章源头核实,沟通删除相关内容或断开相关链接。

2021-09-03
中国科大在机器学习提高超导量子比特读取效率上取得重要进展
中国科大在机器学习提高超导量子比特读取效率上取得重要进展,C114讯 9月3日消息(余予)来自中国科大的消息显示,中国科大郭光灿院士团队近日在机器学习提高超导

长按扫码 阅读全文

Baidu
map