技术文章和通讯

基于物理的机器学习:基于云的深度学习和声学模式用于器官细胞生长研究

由Samuel J. Raymond,马萨诸塞州理工学院


为了在实验室中从细胞中培养器官组织,研究人员需要一种非侵入性的方法来固定细胞。一个很有希望的方法是声学模式它涉及到在细胞发育成组织的过程中,利用声能将细胞定位并保持在所需的模式。通过将声波应用于微流控装置,研究人员已经将微米级的细胞驱动成简单的图案,如线和网格。

我和我的同事开发了一种深度学习和数值模拟相结合的方法,使我们能够将细胞排列成我们自己设计的更复杂的模式。通过在MATLAB中执行整个工作流,我们节省了数周的时间®并使用并行计算来加速关键步骤,如从模拟器生成训练数据集和训练深度学习神经网络。

微通道声学模式

在微流体装置中,在可以制成不同形状的亚倍数计的微通道中操纵流体和流体传播的颗粒或细胞。为了在这些微通道内创建声学图案,使用叉指换能器(IDT)产生表面声波(SAW)并向沟道壁引导(图1A)。在通道内的流体中,声波产生与通道壁对准的压力最小值和最大值(图1B)。因此,通道壁的形状可以被配置为在通道内产生特定的声场1(图1c)。声场将流体内的颗粒排列成对应于来自这些声波的力最小化的位置的图案(图1D)。

图1.微通道中的声学图案化。

虽然可以计算特定的声道形状产生的声场,但反过来是不可能的:设计一个声道形状来产生所需的声场不是一件简单的任务,但对于简单的网格模式来说。由于解空间是有效无界的,解析方法是不可行的。

这个新的工作流程使用大量的模拟结果(随机形状)和深度学习来克服这种限制。我的同事和我首先通过模拟MATLAB中已知形状的压力场来解决前向问题。然后,我们利用结果训练深度神经网络来解决反问题:识别产生所需的声场图案所需的微通道形状。

解决正演问题:模拟压力场

在早期的工作中,我们的团队在MATLAB中开发了一个模拟引擎,利用惠更斯-菲涅耳原理求解给定特定通道几何形状的压力场,该原理认为平面波上的任何点都是球面波的点源(图2)。

图2.为特定频道几何生成的声压场。

仿真引擎依赖于各种矩阵运算。因为这些操作是在MATLAB中执行的,每次模拟只需要几分之一秒的时间,我们需要模拟成千上万个独特的形状和它们对应的2D压力场。我们通过使用parallel Computing Toolbox™在多核工作站上并行运行模拟来加速这个过程。

一旦我们需要我们需要的数据,就用于训练深度学习网络从给定压力场推断出频道形状,基本上反转输入和输出的顺序。

反问题的深度网络训练

首先,在模拟压力场值上执行阈值处理,以帮助加快培训过程。这导致创建了151 x 151 2d矩阵的那些和零,我们展平到了一个1d向量,该载体将是深度学习网络的输入。为了最小化输出神经元的数量,我们使用了捕获信道形状轮廓的傅里叶系数表示(图3)。

图3。用(从左到右)3、10和20系数旋转20的等边三角形的傅里叶级数近似。

我们使用深网络设计器应用构建了初始网络,并以编程方式精制,以平衡精度,多功能性和训练速度(图4)。我们在NVIDIA上使用Adaptive Mony估算(ADAM)求解器培训了网络®泰坦RTX GPU。

图4.具有四个隐藏层的完全连接的前馈网络。

验证结果

为了验证培训的网络,我们使用它来推断从给定压力场的频道几何体,并使用该几何形状作为输入到模拟引擎以重建压力场。然后我们比较了原始和生成的压力场。两个字段内的压力最小和最大值彼此密切匹配(图5)。

图5.用于验证深度学习网络的工作流程。

接下来,我们进行了许多真实的测试。要指出我们希望粒子汇总的区域,我们使用Microsoft吸引了定制的图像®画。其中包括多种不同的单一和多行图像,而无需我们技术就难以生产。然后使用训练的网络推断出生产这些定义区域所需的沟道几何形状。最后,在我们的合作伙伴的帮助下,我们根据推断的几何形状制作了许多微流体装置。然后将这些装置中的每一个用1μM聚苯乙烯颗粒悬浮在流体中的1μM聚苯乙烯颗粒中,然后将锯施加到装置上。结果显示沿着我们定制图像中所示的区域聚集的颗粒(图6)。

图6.底部:在Microsoft Paint(紫色)中绘制的区域叠加在这些区域中聚集在粒子所需的模拟声场。顶部:在制造的微流体装置中产生悬浮聚苯乙烯颗粒的图案。

向云过渡

当我们期待这个项目的下一阶段时,我们正在更新我们的深度学习网络,以便使用声场的图像作为输入,并分别产生通道形状的图像,而不是使用扁平的向量和傅立叶系数。希望如此,这一变化将使我们能够使用不容易定义的沟渠形状,这些傅里叶系列可以随时间而变化。但是,它需要一个更大的数据集进行培训,更复杂的网络架构以及更大的计算资源。因此,我们正在将网络及其培训数据转变为云。

幸运的是,MathWorks Cloud Center提供了一个方便的平台,可以快速启动和关闭高性能云计算资源的实例。在云中进行科学研究的一个更烦人的方面是与实例的交互,这涉及到在云和本地机器之间移动算法和数据。MATLAB Parallel Server™抽象了云计算的更复杂的方面,使我们能够在本地或在云中运行,只需点击几个简单的菜单。这种易用性让我们能够将注意力集中在科学问题上,而不是解决问题所需的工具上。

使用MATLAB与NVIDIA GPU启用的亚马逊Web服务实例,我们计划使用存储在Amazon中的数据培训更新的网络®S3™桶。然后,我们可以在本地工作站使用经过训练的网络进行推断(不需要高性能计算),并对不同的声场模式进行实验。这项工作将为其他基于物理的机器学习项目提供一个基线。

致谢

作者愿意承认大卫J.Collins,Richard O'Rorke,Mahnoush Tayebi,Ye Ai和John Williams的贡献。

1Collins, D. J., O’Rorke, R., Devendran, C., Ma, Z., Han, J., Neild, A. & Ai, Y. “Self-Aligned Acoustofluidic Particle Focusing and Patterning in Microfluidic Channels from Channel-Based Acoustic Waveguides.”理论物理。(1。120,074502(2018)。

关于作者

Sam Raymond是斯坦福大学的博士后学者,完成了他的博士学位。在麻省理工学院的计算科学与工程中心(CCSE)中心。他的研究兴趣包括物理知识的机器学习,应用高性能计算,深度学习和网格免费方法来解决部分微分方程来模拟现实世界现象。

2020年出版的

查看相关行业的文章