技术文章和通讯

基于物理的机器学习:基于云的深度学习和声学模式用于器官细胞生长研究

Samuel J. Raymond,麻省理工学院


为了在实验室中从细胞中培养器官组织,研究人员需要一种非侵入性的方法来固定细胞。一个很有希望的方法是声学模式它涉及到在细胞发育成组织的过程中,利用声能将细胞定位并保持在所需的模式。通过将声波应用于微流控装置,研究人员已经将微米级的细胞驱动成简单的图案,如线和网格。

我和我的同事开发了一种深度学习和数值模拟相结合的方法,使我们能够将细胞排列成我们自己设计的更复杂的模式。通过在MATLAB中执行整个工作流,我们节省了数周的时间®并使用并行计算来加速关键步骤,如从模拟器生成训练数据集和训练深度学习神经网络。

微通道声学模式

在微流体装置中,流体和流体携带的颗粒或细胞在亚毫米大小的微通道中操作,这些微通道可以被制成不同的形状。为了在这些微通道中创建声学模式,使用数字间换能器(IDT)生成表面声波(SAW),并将其指向通道壁(图1a)。在通道内的流体中,声波产生的压力最小值和最大值与通道壁对齐(图1b)。因此,通道壁的形状可以配置成在通道内产生特定的声场1(图1 c)。声场将流体中的粒子排列成与声波作用力最小化的位置相对应的图案(图1d)。

图1所示。微通道中的声学模式。

虽然可以计算特定的声道形状产生的声场,但反过来是不可能的:设计一个声道形状来产生所需的声场不是一件简单的任务,但对于简单的网格模式来说。由于解空间是有效无界的,解析方法是不可行的。

这个新的工作流使用大量的模拟结果(随机形状)和深度学习来克服这个限制。我和同事首先在MATLAB中模拟已知形状的压力场,解决了正演问题。然后我们使用结果来训练一个深度神经网络来解决反问题:识别微通道形状需要产生所需的声场模式。

解决正演问题:模拟压力场

在早期的工作中,我们的团队在MATLAB中开发了一个模拟引擎,利用惠更斯-菲涅耳原理求解给定特定通道几何形状的压力场,该原理认为平面波上的任何点都是球面波的点源(图2)。

图2。特定通道几何形状所产生的声压场。

仿真引擎依赖于各种矩阵运算。因为这些操作是在MATLAB中执行的,每次模拟只需要几分之一秒的时间,我们需要模拟成千上万个独特的形状和它们对应的2D压力场。我们通过使用parallel Computing Toolbox™在多核工作站上并行运行模拟来加速这个过程。

一旦我们获得了所需的数据,我们就用它来训练一个深度学习网络,从给定的压力场推断出通道形状,本质上颠倒了输入和输出的顺序。

反问题的深度网络训练

首先,对模拟的压力场值进行阈值设置,以加快训练过程。这导致创建了151 x 151个1和0的2D矩阵,我们将其平展成一个一维向量,作为深度学习网络的输入。为了最小化输出神经元的数量,我们使用傅立叶系数表示来捕获通道形状轮廓(图3)。

图3。用(从左到右)3、10和20系数旋转20的等边三角形的傅里叶级数近似。

我们使用Deep network Designer应用构建了初始网络,并通过编程对其进行了优化,以平衡准确性、多用途性和训练速度(图4)。我们在NVIDIA上使用自适应矩估计(ADAM)求解器训练网络®泰坦RTX GPU。

图4。具有四个隐藏层的全连接前馈网络。

验证结果

为了验证训练过的网络,我们使用它从给定的压力场推断出通道几何形状,并将该几何形状作为模拟引擎的输入来重建压力场。然后我们比较了原始压力场和产生的压力场。两个油田的压力最小值和最大值非常吻合(图5)。

图5。验证深度学习网络的工作流。

接下来,我们执行了许多实际测试。为了指出我们想要粒子聚集的区域,我们用Microsoft绘制了定制的图像®油漆。这些包括各种不同的单线和多线图像,如果没有我们的技术,这些图像是很难制作的。然后使用训练过的网络推断出产生这些定义区域所需的通道几何形状。最后,在我们的合作伙伴的帮助下,我们基于推断的几何形状制作了许多微流体设备。然后将悬浮在流体中的1 μm聚苯乙烯颗粒注入每个装置,并在装置上应用声表面波。结果显示,粒子沿着定制图像中显示的区域聚集(图6)。

图6。下图:用Microsoft Paint绘制的区域(紫色)叠加在模拟的声场上,这些区域需要粒子聚集。上图:在预制的微流控装置中产生的悬浮聚苯乙烯颗粒图案。

向云过渡

当我们着眼于这个项目的下一阶段时,我们正在更新我们的深度学习网络,使用声场的图像作为输入,生成通道形状的图像作为输出,而不是分别使用平坦矢量和傅立叶系数。我们希望,这种变化将使我们能够使用不容易由随时间变化的傅立叶级数定义的通道形状。然而,它将需要更大的训练数据集,更复杂的网络架构,和显著更多的计算资源。因此,我们正在将网络及其训练数据转移到云端。

幸运的是,MathWorks Cloud Center提供了一个方便的平台,可以快速启动和关闭高性能云计算资源的实例。在云中进行科学研究的一个更烦人的方面是与实例的交互,这涉及到在云和本地机器之间移动算法和数据。MATLAB Parallel Server™抽象了云计算的更复杂的方面,使我们能够在本地或在云中运行,只需点击几个简单的菜单。这种易用性让我们能够将注意力集中在科学问题上,而不是解决问题所需的工具上。

使用MATLAB和支持NVIDIA gpu的Amazon Web Services实例,我们计划使用存储在Amazon中的数据来训练更新后的网络®S3™桶。然后,我们可以在本地工作站使用经过训练的网络进行推断(不需要高性能计算),并对不同的声场模式进行实验。这项工作将为其他基于物理的机器学习项目提供一个基线。

确认

作者要感谢David J. Collins、Richard O’rorke、Mahnoush Tayebi、Ye Ai和John Williams对这个项目的贡献。

1Collins, D. J., O 'Rorke, R., Devendran, C., Ma, Z., Han, J., Neild, A. & Ai, Y.“基于沟道声学波导的微流控自对准声流粒子聚焦和模式”。理论物理。(1.120、074502(2018)。

关于作者

Sam Raymond是斯坦福大学的博士后学者,他在麻省理工学院的计算科学与工程中心(CCSE)完成了博士学位。他的研究兴趣包括基于物理的机器学习,应用高性能计算,深度学习和无网格方法求解偏微分方程,以模拟现实世界的现象。

2020年出版的

查看相关行业的文章