1月21日消息,據(jù)國(guó)外媒體報(bào)道,F(xiàn)acebook宣布對(duì)其人工智能(AI)技術(shù)進(jìn)行新的改進(jìn),增強(qiáng)為視障用戶生成 Instagram 等平臺(tái)上發(fā)布的照片描述。
早在2016年,F(xiàn)acebook 就推出了一種名為“自動(dòng)替代文本”(automatic alternative text,AAT)的新技術(shù),利用對(duì)象識(shí)別技術(shù)為盲人或視障用戶按需生成照片的描述。
該公司在周二晚間的一份聲明中表示: “從那時(shí)起,我們一直在改進(jìn)它,并且很高興推出下一代 AAT。”改善了用戶的照片體驗(yàn),改進(jìn)后的AAT可以可靠地識(shí)別1200多個(gè)概念,跟2016年相比擴(kuò)大了十倍以上。這意味著沒有描述的照片減少了,提供的描述也更加詳細(xì)。還可以識(shí)別活動(dòng)、地標(biāo)、動(dòng)物類型等等。
Facebook表示,這一進(jìn)步可以幫助盲人或視力受損的用戶更好地理解家人和朋友發(fā)布照片中的內(nèi)容,提供更多詳細(xì)信息。
最新版本的 AAT 使用了一個(gè)在數(shù)十億張 Instagram 公開圖片和標(biāo)簽數(shù)據(jù)上訓(xùn)練出來(lái)的模型。為了使這些模型更好地適用于所有人,該公司對(duì)其進(jìn)行了微調(diào),以便從所有地理位置的圖像中采集數(shù)據(jù),并使用多種語(yǔ)言翻譯標(biāo)簽(hashtags)。還根據(jù)性別、膚色和年齡來(lái)評(píng)估其概念。由此產(chǎn)生的模型更準(zhǔn)確,在文化和人口統(tǒng)計(jì)方面更具包容性。
關(guān)鍵詞: