ハードウェアに頼らずノイズの影響を削減、量子センシングを高精度化

磁場、電場、温度等の情報を高い精度で得られる「センシング技術」は、情報化社会の基盤技術の一つとして重要性が一層高まっている。核磁気共鳴画像法(MRI)や脳の状態をセンシングする脳波計など広い応用例があり、より小さい領域を高い精度で検知できるセンサーの開発が待望されている。

近年、量子センシングは既存のセンサーの感度と空間分解能を上回ると期待されており、大別すると2種類、①重ね合わせ状態を用いる手法と②量子もつれ状態を用いる手法について、世界中で研究が行われている。ノイズのない理想的な状況であれば、②は、①よりも桁違いに精度が向上することが知られている――が、外部環境との相互作用やハードウェアの不完全性等にて生じるノイズの影響を受けやすく、それを削減することが課題だという。

NTT産総研大阪大学QIQBは、量子状態を用いた高精度なセンシングを可能とするアルゴリズムを考案した。同アルゴリズムでは、量子コンピュータ実現のため考案されている量子エラー抑制法を活用することで、未知ノイズの影響が大幅に削減可能であることを世界で初めて確認した。これにより、ハードウェアに手を加えることなく、より高精度な量子センシングを実現できるという。

今回の研究は、量子もつれ状態を用いた高精度な量子センシングの実現に向けた重要な一歩。今後の方向性としては、実証実験、複数の量子状態を準備せずに同手法を行う改良などが考えられる。同手法は磁場センシング以外にも適用できる、一般的な手法としての確立が望め、他の種類の量子センシングにおける性能評価も考えられる。

それらの手法が発展することで量子センシングによる精度向上が得られるようになると、基礎科学のみならず、センシングが応用される幅広い分野への貢献が予期されるという。研究成果は、オンライン版米国科学雑誌『Physical Review Letters』に掲載された。