我正在使用显微镜图像进行语义分割(针对细胞)。我正在探索U-net和FCN DenseNets来完成这项任务。在 U-net 论文中,作者仅从 30 张图像中训练了他们的模型,但广泛使用了数据增强,特别是弹性变形。我的数据也很少,只有 15-20 个带注释的图像。因此,我也计划使用数据增强。我也在使用弹性变形。
我正在使用的其他技术:
- 翻转、旋转、平移、剪切
- 随机裁剪、缩小、拉伸
- 图像对比度和高斯噪声
这将使我的数据集增加 10-20 倍。
Q.1 我的问题是我应该使用离线增强还是即时(实时)增强?
从我目前所读的内容来看:如果数据集很大,则使用即时扩充,以免数据集的大小爆炸。我知道这是非常笼统的。我也在Kaggle上看到了这一点:对于在线数据增强,模型只看到一个随机生成的样本一次,因此可以更好地概括。
Q.2 另外,我使用了如此多的数据增强技术,即使数据集如此之小,它们也会很有用,还是我应该只使用其中一些技术?
非常感谢任何帮助。