用于分割显微镜图像的实时或离线数据增强?

数据挖掘 机器学习 神经网络 深度学习 分类 图像识别
2022-02-14 13:53:48

我正在使用显微镜图像进行语义分割(针对细胞)。我正在探索U-netFCN DenseNets来完成这项任务。在 U-net 论文中,作者仅从 30 张图像中训练了他们的模型,但广泛使用了数据增强,特别是弹性变形。我的数据也很少,只有 15-20 个带注释的图像。因此,我也计划使用数据增强。我也在使用弹性变形。

我正在使用的其他技术:

  1. 翻转、旋转、平移、剪切
  2. 随机裁剪、缩小、拉伸
  3. 图像对比度和高斯噪声

这将使我的数据集增加 10-20 倍。

Q.1 我的问题是我应该使用离线增强还是即时(实时)增强?

从我目前所读的内容来看:如果数据集很大,则使用即时扩充,以免数据集的大小爆炸。我知道这是非常笼统的。我也在Kaggle上看到了这一点:对于在线数据增强,模型只看到一个随机生成的样本一次,因此可以更好地概括。

Q.2 另外,我使用了如此多的数据增强技术,即使数据集如此之小,它们也会很有用,还是我应该只使用其中一些技术?

非常感谢任何帮助。

1个回答

我认为你的数据太少了,假设你必须将它进一步分离到训练、测试和验证集。您的模型不能很好地概括。考虑获取更多数据(至少大约 1500-2000 个样本)