北京时间6月20日早间消息,谷歌近期发表的一篇学术论文或许为机器学习未来的发展制定了蓝图。这篇论文题为“一种可以进行各种学习的模型”,为可处理多任务的单一机器学习模型提供了模板。
资料图
谷歌研究员将其称作“MultiModel”(多任务模型),并训练该模型完成一系列任务,包括翻译、语言分析、语音识别、图像识别和对象探测等。尽管结果相对于当前方法并没有质的飞跃,但这表明,用多种任务去训练机器学习系统将提升其整体性能。
例如,如果用可以胜任的所有任务来进行训练,那么相对于用单一任务进行训练,MultiModel在机器翻译、语音和分析任务方面的准确性会更高。
谷歌的论文为未来机器学习系统的开发提供了模板。这种系统可以得到更广泛的应用,或许也会更准确。这将与当前的狭义解决方案不同。更重要的是,这些技术(及其衍生技术)有助于减少机器学习算法所需的训练数据量。
该团队的研究结果表明,在用可以胜任的所有任务来进行训练时,准确性会随着训练数据的减少而提高。这点很重要,因为某些领域很难积累起足够多的训练数据。
然而,谷歌并没有宣称已找到一种可以学会所有任务的“主算法”。正如名称所暗示的,MultiModel网络包含为解决不同挑战而订制的系统,以及协助直接向这些专家算法提供输入的系统。谷歌采取的方法将有助于未来开发类似的系统,以解决不同领域的问题。
需要指出,这方面仍有许多测试需要去做。谷歌的研究结果尚未得到证实,目前也很难弄清,这项研究能否拓展至其他领域。作为TensorFlow开源项目的一部分,谷歌大脑团队已经发布了MultiModel的代码,而其他人可以尝试这个模型。