在一篇新的论文中,出现了一种同新技术减少迭代次数的概念。它在保证准确性的前提下,将深度学习网络的训练时间缩短了60%。论文的作者表示,这可能会导致 人工智能 应用出现一些新的发展。因为人工智能的训练速度一直是业界关注的关键问题,特别是在计算机视觉领域。
北卡罗莱纳州立大学计算机科学发言人表示,人工智能工具发展面临的最大挑战是缩短对其计算能力的训练时长、保证深度学习网络识别的准确性以及应对与应用程序相关数据模式的方式。因此,他们提出了一种加速该过程的方法,他们将其称为自适应深度重用。且该方法已被证实可以在不降低准确率的情况下,将训练时间减少至69%。
新技术通过减少迭代次数与识别用于训练的数据点之间的相似性,使计算机视觉人工智能网络模型受益。训练一个较为完善的深度学习网络需要将一个数据样本分解成连续的数据点,这个过程始于将数字图像分割成相邻的像素块,每个数据块都会通过一组计算过滤器运行。然后,数据块将通过其他过滤器集运行结果。为了对深度学习网络进行微调,网络可能会在数百个时代运行相同的数据集。