谷歌搞出個機器學習多面手:能處理聲音圖像多種任務
北京時間6月20日早間消息,谷歌近期發(fā)表的一篇學術論文或許為機器學習未來的發(fā)展制定了藍圖。這篇論文題為“一種可以進行各種學習的模型”,為可處理多任務的單一機器學習模型提供了模板。
本文引用地址:http://www.2s4d.com/article/201706/360726.htm谷歌研究員將其稱作“MultiModel”(多任務模型),并訓練該模型完成一系列任務,包括翻譯、語言分析、語音識別、圖像識別和對象探測等。盡管結果相對于當前方法并沒有質的飛躍,但這表明,用多種任務去訓練機器學習系統(tǒng)將提升其整體性能。
例如,如果用可以勝任的所有任務來進行訓練,那么相對于用單一任務進行訓練,MultiModel在機器翻譯、語音和分析任務方面的準確性會更高。
谷歌的論文為未來機器學習系統(tǒng)的開發(fā)提供了模板。這種系統(tǒng)可以得到更廣泛的應用,或許也會更準確。這將與當前的狹義解決方案不同。更重要的是,這些技術(及其衍生技術)有助于減少機器學習算法所需的訓練數據量。
該團隊的研究結果表明,在用可以勝任的所有任務來進行訓練時,準確性會隨著訓練數據的減少而提高。這點很重要,因為某些領域很難積累起足夠多的訓練數據。
然而,谷歌并沒有宣稱已找到一種可以學會所有任務的“主算法”。正如名稱所暗示的,MultiModel網絡包含為解決不同挑戰(zhàn)而訂制的系統(tǒng),以及協(xié)助直接向這些專家算法提供輸入的系統(tǒng)。谷歌采取的方法將有助于未來開發(fā)類似的系統(tǒng),以解決不同領域的問題。
需要指出,這方面仍有許多測試需要去做。谷歌的研究結果尚未得到證實,目前也很難弄清,這項研究能否拓展至其他領域。作為TensorFlow開源項目的一部分,谷歌大腦團隊已經發(fā)布了MultiModel的代碼,而其他人可以嘗試這個模型。
評論