每天,大家都會用 Google 搜尋來找方法保護自己和家人的安全。我們不斷打造、改善新功能,幫助大家快速找到需要的資訊;無論是在自然災害發生的時候能夠讓相關資源更快被找到,或是提供具有時效性的健康資訊。而人工智慧的進步可以驅動新的科技、幫助大家遠離危險,譬如洪水預報。
且讓我們來向你說明,我們的人工智慧系統如何幫助我們把大家和重要的資訊連結在一起,並且同時篩選掉可能是駭人或是有害的內容,讓大家無論是在線上或是在現實生活中,都可以確保安全無虞。
在關鍵時刻提供值得信賴的實用資訊我們知道,人會在最重要的時刻使用 Google 搜尋。現在,如果有人在 Google 上搜尋有關自殺或是人口販賣的資訊,就會看到全年無休的協談或是救助熱線,以及最相關、最有幫助的搜尋結果。
但是,當人陷入個人危機的時候,會用各種方式來搜尋;而且對我們來說,不是每一次都能夠知道他們有需要幫助。而如果我們不能準確的識別這一點,就不能修改我們系統的程式,去顯示最有幫助的搜尋結果。這就是為什麼使用機器學習來理解語言非常重要。
現在,透過我們最新的 AI 模型 MUM,我們可以自動、準確地偵測個人危機的搜尋,範圍比過去更廣。MUM 可以更清楚釐清人們問題背後的意圖,以偵測使用者何時需要協助。這有助於我們在正確的時間點,提供更可靠、可信賴和可執行的資訊。我們將在接下來的幾周,就會開始用 MUM 來進行這些改善。
避開非預期的駭人內容
如果要確保你能夠安全的使用搜尋功能,就要協助你避開非預期的駭人內容,而這其實非常具有挑戰性,因為內容創作者有時會使用無害的標籤去標記煽情露骨或具有暗示性的內容。而且,符合你的搜尋最普遍的結果,不一定會符合你想要找到的東西。在這種情況下,就算你並未直接搜尋這些煽情露骨的內容,還是可能會出現在搜尋結果當中。
我們處理這種情況的方法,有一種是透過安全搜尋功能,讓你能選擇是否要過濾掉煽情露骨的搜尋結果。這項功能會為未滿 18 歲的 Google 用戶預設成開啟的狀態。此外,就算你沒有開啟安全搜尋功能,只要不是在尋找色情內容,我們的系統仍然會減少你不想要的色情搜尋結果。事實上,我們的安全演算法每天都在改善全球數億筆橫跨網頁、圖像和影像的搜尋內容。
安全搜尋功能幫助過濾掉煽情露骨的搜尋結果,並為未滿 18 歲的 Google 用戶預設為開啟
不過我們還是有些改善空間,像是我們也在用 BERT 這樣進階的 AI 技術,去更瞭解你在找什麼。BERT 幫助我們理解你是否真的在搜尋煽情露骨內容,並協助我們大幅減少你在搜尋結果中看到非預期內容的機會。
這個挑戰相當複雜,我們已經花了一陣子在解決。但是光在去年,BERT 的改進已經把這些非預期的駭人搜尋結果降低了 30%,尤其是在搜尋種族、性傾向、性別相關內容的時候,減少煽情露骨的內容特別有效。這些露骨內容會對女性、尤其是有色人種女性,造成特別大的影響。
將我們的保護措施擴大至全世界
我們用 75 種語言來訓練 MUM,所以它能夠在這些語言中傳遞資訊,而這也使得我們能夠更有效地把保護的規模擴大到全世界。當我們訓練一個 MUM 的模型來執行一項任務的時候,譬如像是分類搜尋的性質,MUM 的模型也會學習在所有它受訓過的語言裡執行這項任務。
例如,我們會採用 AI 技術協助減少搜尋結果中無用甚至是危險的垃圾內容頁面。在接下來的幾個月內,我們會用 MUM 來提升阻擋垃圾訊息的效能,並且擴展到訓練資訊不太多的語言裡。未來在全世界,我們將會更能偵測到個人危機的搜尋,並且和當地值得信賴的夥伴合作,在更多的國家和地區提供具有實用價值的資訊。
也如同搜尋功能中的任何的改善措施,這些變更也已透過 Google 來自全球搜尋評分者的嚴格評估,日後也會持續進行監督,藉此確保為使用者提供更貼近需求的實用搜尋結果。無論你想搜尋什麼內容,我們都承諾會幫助你安全地找到所需資訊。
本文作者:Google 搜尋研究員暨副總裁 Pandu Nayak
G2G59
回覆刪除作者已經移除這則留言。
回覆刪除A new earthquake has hit western Afghanistan - several days after two large tremors in the region killed more than 1,000 people. รับสร้างบ้านลำพูน
回覆刪除