-
公开(公告)号:CN115046576A
公开(公告)日:2022-09-13
申请号:CN202210671361.3
申请日:2022-06-14
Applicant: 中国科学院苏州生物医学工程技术研究所
IPC: G01D18/00
Abstract: 本申请公开了一种波前传感器物理参数的标定系统、方法及装置,包括:球面波发生装置、待标定的波前传感器及数据处理器。先通过球面波发生装置产生高精度球面波,待标定的波前传感器基于该球面波产生与之相应的光斑阵列图像;数据处理器获取微透镜阵列的子透镜尺寸与探测器的像素尺寸之间的比例关系,再基于该比例关系、光斑阵列图像及各物理参数之间的约束关系对波前传感器的各物理参数迭代求解,获取各物理参数的近似值,最后,通过波前复原精度的分析确定各物理参数的最终标定值。解决了由于现有技术手段的缺失,无法对波前传感器的物理参数进行高精度标定的技术问题,将各物理参数收敛到目标精度范围内,提高了波前传感器的测量精度。
-
公开(公告)号:CN113100942B
公开(公告)日:2022-09-09
申请号:CN202110390594.1
申请日:2021-04-12
Applicant: 中国科学院苏州生物医学工程技术研究所
IPC: A61B34/20
Abstract: 本发明公开了一种激光点识别方法以及利用该方法的SS‑OCT手术导航系统,该方法包括以下步骤:1)对图像进行预处理;2)进行中值滤波处理;3)选择SS‑OCT的扫描区域作为感兴趣区域;4)将图像从RGB空间转换至HSV空间;5)进行直方图均衡化;6)进行二值化处理;7)进行开操作去除噪点,再进行闭操作连接连通域;8)利用霍夫圆检测算法获取引导激光点的圆心位置坐标,完成激光点的识别。本发明将HSV颜色空间与霍夫圆算法相结合,在实际应用中可以精确定位激光点并给出其空间位置,且受外部环境影响较小,识别效果很好;能克服传统的激光点识别方法中容易因噪声与背景变化的影响而造成识别准确率低的问题。
-
公开(公告)号:CN114612484A
公开(公告)日:2022-06-10
申请号:CN202210223934.6
申请日:2022-03-07
Applicant: 中国科学院苏州生物医学工程技术研究所
Abstract: 本发明公开了一种基于无监督学习的视网膜OCT图像分割方法,包括以下步骤:S1、从采集的OCT图像中,筛选出正常视网膜图像和异常网膜图像;S2、筛除质量存在问题的图像,余下的作为训练数据集;S3、构建视网膜OCT图像生成网络模型;S4、网络模型训练;S5、通过训练好的网络模型对输入的视网膜OCT图像进行病灶分割。本发明提供的方法能实现眼底视网膜OCT图像中的病灶精准分割,相比现有的无监督病灶分割方法,本发明能大大减少预处理步骤,最大程度保留原始的图像信息,对常见的渗出性和水肿型病灶都有较好的分割效果;本发明对加快眼底相关疾病的临床诊断速度、提高诊断精度和指导检查具有潜在的医学价值。
-
公开(公告)号:CN113203364A
公开(公告)日:2021-08-03
申请号:CN202110660621.2
申请日:2021-06-15
Applicant: 中国科学院苏州生物医学工程技术研究所
Abstract: 本发明公开了一种光学镜头间距测量系统的共聚焦定焦装置,该光学镜头间距测量系统包括低相干扫频光源、耦合器、参考臂、第一探测器和第一准直器,该共聚焦定焦装置包括小孔反射镜、调焦透镜、聚焦透镜、针孔板和第二探测器。本发明中,通过设置在聚焦透镜焦点处的针孔板遮挡非聚焦的能量,形成共焦探测,进而可以根据第二探测器探测到的能量信号确定调焦透镜的焦点是否刚好聚焦在待测镜面上,从而可实现调焦透镜的定焦,操作简便,易于实现;本发明中,通过小孔反射镜将测量系统不能进入第一准直器的光能利用起来,提高了测量系统能量的利用率。
-
公开(公告)号:CN113100941A
公开(公告)日:2021-07-13
申请号:CN202110388927.7
申请日:2021-04-12
Applicant: 中国科学院苏州生物医学工程技术研究所
IPC: A61B34/20
Abstract: 本发明公开了一种基于SS‑OCT手术导航系统的图像配准方法及系统,该方法先在SS‑OCT手术导航系统中引入引导光源对手术区域进行标记,通过引导光源在OCT图像与显微图像产生的激光点对作为基准点对,然后利用单应性矩阵求解基准点对之间的对应关系从而将OCT图像与二维显微图像进行配准。本发明首先在系统中引入引导光源进行基准点的设置,然后通过对二维显微图像与OCT图像中基准点对的对应关系进行求解实现两种不同模态图像的配准融合,使得扫描区域的信息显示更为直观形象,且配准误差为0.04mm左右,可用于术前手术规划及术后效果评估等医疗诊断的辅助,还可以作为医学培训的辅助工具,为初学者提供直观的结构深度信息。
-
公开(公告)号:CN110645892B
公开(公告)日:2021-06-01
申请号:CN201910645065.4
申请日:2019-07-17
Applicant: 中国科学院苏州生物医学工程技术研究所 , 长春奥普光电技术股份有限公司
Abstract: 本发明公开了一种SS‑OCT间距测量中获取更小镜像残余的消镜像方法及其系统,本发明的方法通过PZT先引起相位震荡后采用遍历迭代算法来获得误差更小的相位,然后带入消镜像算法公式,得到消镜像结果。本发明公开的SS‑OCT间距测量系统包括扫频光源、环形器、波分复用器、光纤耦合器、参考臂、样品臂、光电探测器、数据采集设备及电子计算机。本发明不同于传统的直接利用PZT产生位移,而是通过PZT先引起相位震荡后采用算法上的遍历迭代来获得误差更小的相位。应用在光学表面间距测量上,成倍提升了测量量程,且得到镜像残余更小的效果,获得了更好的消镜像效果。
-
公开(公告)号:CN111920376A
公开(公告)日:2020-11-13
申请号:CN202010549873.3
申请日:2020-06-16
Applicant: 中国科学院苏州生物医学工程技术研究所
Abstract: 本发明公开了一种自适应光学双轴扫描成像的非等晕像差校正方法与装置。本发明在不增加自适应光学波前传感器与波前校正器的情况下,双轴扫描的非等晕像差按照光束扫描轨迹,通过分时的方法分成多个等晕区子视场,每个等晕区子视场分别完成像差测量与闭环校正,每个等晕区子视场成像图像还结合图像处理技术补充校正残余像差,从而实现宽视场非等晕像差的完整校正;本发明只需要单个波前传感器和单个波前校正器即可完成宽视场像差校正,可以突破等晕区对自适应光学成像视场的限制,实现对视网膜宽视场的像差校正与高分辨率成像,且几乎不增加任何系统复杂性,具有极高的实用性;本发明提供的解卷积图像校正,成本低,校正效果好。
-
公开(公告)号:CN111887992A
公开(公告)日:2020-11-06
申请号:CN202010678117.0
申请日:2020-07-15
Applicant: 中国科学院苏州生物医学工程技术研究所
Abstract: 本发明公开了一种基于光学相干层析成像的智能手术机器人系统,该系统包括成像系统,用于对手术区域进行二维显微成像和光学相干层析三维成像;控制系统,控制机械臂组进行手术;终止系统,用于即时控制机器人系统停止工作;监测系统,用于实时监测机器人系统的工作状况;报警系统,用于实时接收各监测信息,在监测信息不符合预设安全条件时报警。本发明将光学相干层析技术与机器人技术相结合,能够对人眼进行断层成像,精准定位病灶位置,实现对眼科手术的实时导航,同时多个机械臂末端安装不同手术器械,可自行规划手术路径,相互配合实现更复杂的手术,在获得更准确、直观的手术导航信息和减少医生工作量的同时,提高了手术的精准度和可操作性。
-
公开(公告)号:CN108652581B
公开(公告)日:2020-09-15
申请号:CN201810402812.7
申请日:2018-04-28
Applicant: 中国科学院苏州生物医学工程技术研究所
Abstract: 本发明公开了一种基于线共焦成像的激光刺激系统和方法,其系统包括线光束生成模块、成像模块、刺激光生成模块、慢扫描模块、中空狭缝反射镜、分光模块、快扫描模块和同步控制模块;所述同步控制模块包括主机系统和片上系统;所述刺激光生成模块包括刺激光源和光强度调制器。本发明的系统采用的是共振镜同步扫描方式,采用了中空狭缝反射镜,可以有效消除人眼角膜和前置镜的反射光,并提高光能利用率,而刺激光的快轴扫描光从狭缝中间穿过,并沿着狭缝方向扫描,中空狭缝反射镜的存在没有对刺激光造成影响;本发明的系统将照明光和刺激光分离,可以分别使用不同波长的光;可以同时进行成像和刺激,也可以将成像和刺激分离,避免相互干扰。
-
公开(公告)号:CN111273433A
公开(公告)日:2020-06-12
申请号:CN202010115976.9
申请日:2020-02-25
Applicant: 中国科学院苏州生物医学工程技术研究所
Abstract: 本发明公开了一种高速大视场数字扫描光片显微成像系统,包括按照光路依次设置的光源模块、横向视场扩展模块、扫描模块、照明模块和探测模块,光源模块产生的光经过横向视场扩展模块以获得扩展最终照明区域的有效视场,扫描模块将从横向视场扩展模块接收的线光束扫描成为面光束,照明模块采用分束镜、第一照明物镜和第二照明物镜进行荧光激发,探测模块采用线探测器实现荧光探测成像。本发明提升了轴向分辨率减小了光毒性和光漂白对样品的影响,并且使用线阵探测器使得成像具有更高的分辨率与对比度,并且具有更高的成像速度,且节省了探测器的成本。
-
-
-
-
-
-
-
-
-