無(wú)監(jiān)督/弱監(jiān)督學(xué)習(xí)逐漸成為企業(yè)降本增效新利器

在過(guò)去的幾年中,深度學(xué)習(xí)所取得的巨大成功離不開(kāi)大規(guī)模標(biāo)注的數(shù)據(jù)集。大規(guī)模標(biāo)注的背后,是傳統(tǒng)的監(jiān)督學(xué)習(xí)對(duì)于每一個(gè)訓(xùn)練樣本完備標(biāo)簽的要求。隨著業(yè)務(wù)規(guī)模的不斷擴(kuò)大,越來(lái)越多的企業(yè)發(fā)現(xiàn)數(shù)據(jù)的標(biāo)注開(kāi)始成為抬高交付成本、制約效果提升的主要因素之一。

在此背景下,無(wú)監(jiān)督學(xué)習(xí)和弱監(jiān)督學(xué)習(xí)通過(guò)不使用標(biāo)簽或減少對(duì)標(biāo)簽數(shù)量、質(zhì)量的要求來(lái)迅速降低深度模型對(duì)于數(shù)據(jù)的標(biāo)注需求,使得原本無(wú)法利用的數(shù)據(jù)如今都可以加入到模型的訓(xùn)練中去,進(jìn)而由量變引發(fā)質(zhì)變。在NLP領(lǐng)域,基于Transformer的無(wú)監(jiān)督訓(xùn)練模型已持續(xù)霸榜各種NLP任務(wù)數(shù)據(jù)集;在CV領(lǐng)域,*的MPL方法也通過(guò)額外的無(wú)標(biāo)注數(shù)據(jù)集*將ImageNet的Top-1分類(lèi)*率提升到了90%+的水平。

可以預(yù)見(jiàn)的是,將有越來(lái)越多的人工智能企業(yè)會(huì)面臨從前期的迅速擴(kuò)張到穩(wěn)定期高效化運(yùn)作的新階段,而在這個(gè)過(guò)程中,無(wú)監(jiān)督/弱監(jiān)督學(xué)習(xí)無(wú)疑將成為他們過(guò)渡到這個(gè)階段的重要手段之一。

? ?來(lái)源高金CGFT