雖然現(xiàn)在街頭許多地方都有鏡頭拍攝,但出現(xiàn)暴力事件時,拍攝的影像鏡頭不一定拍得到。英國有學(xué)者研究把無人機鏡頭結(jié)合 AI 人工智能,辨識暴力事件發(fā)生,即時監(jiān)控和防止犯罪行為。
深度學(xué)習(xí)辨識暴力動作
英國劍橋大學(xué)工程學(xué)系教授 Amarjot Singh,與其人工智能團隊,研發(fā)一套名為「天眼」(Eye in the Sky)的系統(tǒng)。這個系統(tǒng)結(jié)合無人機攝影機拍攝和人工智能,辨識人群中的暴力行為,作出即時監(jiān)控。當(dāng)無人機在空中拍攝時,發(fā)現(xiàn)有暴力行為的動作如射擊、揮拳、腳踢和勒頸等,無人機就會辨識出為暴力行為,鎖定作監(jiān)控。
系統(tǒng)會辨識勒頸、揮拳、腳踢和射擊等動作。
人多準確度會下降
就如以往本站介紹過的人工智能方案,這個系統(tǒng)的人工智能也是透過深度學(xué)習(xí)來提高辨識能力,研究人員使用 Parrot AR 無人機,拍攝志愿者展示 5 種可能是暴力行為的動作,進行分析,從而讓系統(tǒng)學(xué)習(xí)辨識暴力行為,目前系統(tǒng)學(xué)習(xí)的場景中,最少有兩人,最多為十人作示范。據(jù)悉最新版本的天眼,辨識精度達 89%,但只限于單人,當(dāng)拍人群愈多,辨識的準確度就會下降,這是研發(fā)團隊正要解決的問題。這套系統(tǒng)今年將會在印度大學(xué)校園,進行大型試驗,分別是技術(shù)博覽會和音樂節(jié)這類多人聚集的活動進行。
目前系統(tǒng)在人數(shù)較多時準確度會下降。
AI 靠 14 點辦識人體動作。
牽涉私隱問題
監(jiān)控系統(tǒng)往往衍生公眾對私隱的擔(dān)憂,新南威爾斯大學(xué)人工智能教授 Toby Walsh 表示,商用無人機愈來愈容易接觸到,這類新技術(shù)有可能會被警察或威權(quán)政府濫用作監(jiān)視人民的工具。不過開發(fā)者 Amarjot Singh 表示,目前天眼只是原型階段,它只是拍人的動作,并不會采取任何行動。