2019-05-14 07:41:57stevenqiu6691

但最近,大家卻又覺得認

自從1954年第一個可以用程式控制的數位機器人誕生以來,人們一直認為機器人技術的發展太慢,但最近,大家卻又覺得認為它發展太快了,除了怕被搶走工作之外,不少人甚至會擔心好萊塢電影情節將會成真,有朝一日機器人會背叛人類,掌控世界。

英國《經濟學人》最近在專題報導中,特別針對這點指出,關於人工智慧,我們目前最該擔心的問題其實都被忽略了。

報導指出,以深度學習為基礎的臉部辨識技術,讓監控系統變得非常強大。以Google的FaceNet為例,它可以辨識兩張照片中是否有同樣一個人出現,準確率高達99.6%。

臉書的DeepFace也不相上下。臉書的app Moments可以自動收集同樣一個人在網路上的不同照片,這個功能在歐洲推出後,便因觸犯愛爾蘭隱私法而被強制取下。

俄羅斯的一個叫Findface的app也掀起不少爭議。它讓使用者拍陌生人的照片,然後到社交媒體比對,找出對方的身份。這個app的開發者說他們的用意只是要讓大家能找到在街上或酒吧邂逅的人,但是俄羅斯警方已經開始利用它來抓嫌犯或找目擊者。

這種技術帶來的威脅顯而易見:今後你我隨時都會被認出身份,幾乎無所遁逃。假設你去參加遊行,從遠方拍攝的高畫素群眾照片只要一放大,每個參加者的身份永遠都可以被追查。

也就是說,深度學習的時代,只要出現在公共場合,勢必會留下記錄,除非你帶面罩。難怪有一家日本公司已經開始賣起隱私眼罩(privacy visor),專門用來防備臉部辨識系統。

另外,中國當局也正在分析民眾在社交媒體的照片,評估誰可能是異議人士。中國百度以及騰訊的Bestimage的辨識準確度甚至比Google和臉書更高論文翻譯,分別是99.77%和99.65%,為全球辨識技術排名的前兩名。

連在美國加州Fresno郡,警方也正在測試一種叫Beware的系統。它可以根據警方檔案、房產記錄、社交媒體貼文分析某個嫌犯的危險程度。另一個叫做COMPAS的系統,則號稱可以評估嫌犯再犯的機率。這種系統顯然挑戰了「正當的法律程序」這種基本的法律觀念。

深度學習機器另一個令人憂心的地方是,當愈來愈多企業使用它,就有些族群會不小心受到歧視。最尷尬的例子是2015年Google的照片app曾經把一論文翻譯名黑人和他的朋友全都自動標示為「大猩猩」。COMPAS也被批評對黑人有歧視。

「沒有人會想設計出有歧視的系統,但是如果你用差勁的數據去訓練機器,它就會做出差勁的預測,」專門用人工智慧開發企業運用軟體的MetaMind創辦人索區爾(Richard Socher )表示。終究,人工智慧不會只是智能的問題,我們也要好好思考它牽涉到的道德議題。
自從1954年第一個可以用程式控制的數位機器人誕生論文翻譯以來,人們一直認為機器人技術的發展太慢,但最近,大家卻又覺得認為它發展太快了,除了怕被搶走工作之外,不少人甚至會擔心好萊塢電影情節將會成真,有朝一日機器人會背叛人類,掌控世界。

英國《經濟學人》最近在專題報導中,特別針對這點指出,關於人工智慧,我們目前最該擔心的問題其實都被忽略了。 論文翻譯

報導指出,以深度學習為基礎的臉部辨識技術,讓監控系統變得非常強大。以Google的FaceNet為例,它可以辨識兩張照片中是否有同樣一個人出現,準確率高達99.6%。

臉書的DeepFace也不相上下。臉書的app Moments可以自動收集同樣一個人在網路上的不同照片,這個功能在歐洲推出後,便因觸犯愛爾蘭隱私法而被強制取下。

俄羅斯的一個叫Findface的app也掀起不少爭議。它論文翻譯讓使用者拍陌生人的照片,然後到社交媒體比對,找出對方的身份。這個app的開發者說他們的用意只是要讓大家能找到在街上或酒吧邂逅的人,但是俄羅斯警方已經開始利用它來抓嫌犯或找目擊者。

這種技術帶來的威脅顯而易見:今後你我隨時都會被認出身份,幾乎無所遁逃。假設你去參加遊行,從遠方拍攝的高畫素群眾照片只要一放大,每個參加者的身份永遠都可以被追查。

也就是說,深度學習的時代,只要出現在公共場合,勢必會論文翻譯留下記錄,除非你帶面罩。難怪有一家日本公司已經開始賣起隱私眼罩(privacy visor),專門用來防備臉部辨識系統。

另外,中國當局也正在分析民眾在社交媒體的照片,評估誰可能是異議人士。中國百度以及騰訊的Bestimage的辨識準確度甚至比Google和臉書更高,分別是99.77%和99.65%,為全球辨識技術排名的前兩名。

連在美國加州Fresno郡,警方也正在測試一種叫Beware的系統。它可以根據警方檔案、房產記錄、社交媒體貼文分析某個嫌犯的危險程度。另一個論文翻譯叫做COMPAS的系統,則號稱可以評估嫌犯再犯的機率。這種系統顯然挑戰了「正當的法律程序」這種基本的法律觀念。

深度學習機器另一個令人憂心的地方是,當愈來愈多企業使用它,就有些族群會不小心受到歧視。最尷尬的例子是2015年Google的照片app曾經把一名論文翻譯黑人和他的朋友全都自動標示為「大猩猩」。COMPAS也被批評對黑人有歧視。

「沒有人會想設計出有歧視的系統,但是如果你用差勁的數據去訓練機器,它就會做出差勁的預測,」專門用人工智慧開發企業運用軟體的MetaMind創辦人索區爾(Richard Socher )表示。終究,人工智慧不會只是智能的問題,我們也要好好思考論文翻譯它牽涉到的道德議題。
自從1954年第一個可以用程式控制的數位機器人誕生以來,人們一直認為機器人技術的發展太慢,但最近,大家卻又覺得認為它發展太快了,除了怕被搶走工作之外,不少人甚至會擔心好萊塢電影情節將會成真,有朝一日機器人會背叛人類,掌控世界。

英國《經濟學人》最近在專題報導中,特別針對這點指出,關於人工智慧,我們目前最該擔心的問題其實都被忽略了。

報導指出,以深度學習為基礎的臉部辨識技術,讓監控系統變論文翻譯得非常強大。以Google的FaceNet為例,它可以辨識兩張照片中是否有同樣一個人出現,準確率高達99.6%。

臉書的DeepFace也不相上下。臉書的app Moments可以自動收集同樣一個人在網路上的不同照片,這個功能在歐洲推出後,便因觸犯愛爾蘭隱私法而被強制取下。

俄羅斯的一個叫Findface的app也掀起不少爭議。它讓使用者拍陌論文翻譯生人的照片,然後到社交媒體比對,找出對方的身份。這個app的開發者說他們的用意只是要讓大家能找到在街上或酒吧邂逅的人,但是俄羅斯警方已經開始利用它來抓嫌犯或找目擊者。

這種技術帶來的威脅顯而易見:今後你我隨時都會被認出身份,幾乎無所遁逃。假設你去參加遊行,從遠方拍攝的高畫素群眾照片只要一放大,每個參論文翻譯加者的身份永遠都可以被追查。

也就是說,深度學習的時代,只要出現在公共場合,勢必會留下記錄,除非你帶面罩。難怪有一家日本公司已經開始賣起隱私眼罩(privacy visor),專門用來防備臉部辨識系統。

另外,中國當局也正在分析民眾在社交媒體的照片,評估誰可能是異議人士。中國百度以及騰訊的Bestimage的辨識準確度甚至比Google和臉書更高,論文翻譯分別是99.77%和99.65%,為全球辨識技術排名的前兩名。

連在美國加州Fresno郡,警方也正在測試一種叫Beware的系統。它可以根據警方檔案、房產記錄、社交媒體貼文分析某個嫌犯的危險程度。另一個叫做COMPAS的系統,則號稱可以評估嫌犯再犯的機率。這種系統顯然挑戰了「正當的法律程序論文翻譯」這種基本的法律觀念。

深度學習機器另一個令人憂心的地方是,當愈來愈多企業使用它,就有些族群會不小心受到歧視。最尷尬的例子是2015年Google的照片app曾經把一名黑人和他的朋友全都自動標示為「大猩猩」。COMPAS也被批評對黑人有歧視。

「沒有人會想設計出有歧視的系統,但是如果你用差勁的數據去訓練機器,它就會做出差勁的預測,」專門用人工智慧開發企業運用軟體的MetaMi論文翻譯nd創辦人索區爾(Richard Socher )表示。終究,人工智慧不會只是智能的問題,我們也要好好思考它牽涉到的道德議題。
自從1954年第一個可以用程式控制的數位機器人誕生以來,人們一直認為機器人技術的發展太慢,但最近,大家卻又覺得認為它發展太快了,除了怕被搶走工作之外,不少人甚至會擔心好萊塢電影情節將會成真,有朝一日機器人會背叛人論文翻譯類,掌控世界。

英國《經濟學人》最近在專題報導中,特別針對這點指出,關於人工智慧,我們目前最該擔心的問題其實都被忽略了。

報導指出,以深度學習為基礎的臉部辨識技術,讓監控系統變得非常強大。以Google的FaceNet為例,它可以辨識兩張照片中是否有同樣一個人出現,準確率高達99.6%。

臉書的DeepFace也不相上下。臉書的app Moments可以自論文翻譯動收集同樣一個人在網路上的不同照片,這個功能在歐洲推出後,便因觸犯愛爾蘭隱私法而被強制取下。

俄羅斯的一個叫Findface的app也掀起不少爭議。它論文翻譯讓使用者拍陌生人的照片,然後到社交媒體比對,找出對方的身份。這個app的開發者說他們的用意只是要讓大家能找到在街上或酒吧邂逅的人,但是俄羅斯警方已經開始利用它來抓嫌犯或找目擊者。

這種技術帶來的威脅顯而易見:今後你我隨時都會被論文翻譯認出身份,幾乎無所遁逃。假設你去參加遊行,從遠方拍攝的高畫素群眾照片只要一放大,每個參加者的身份永遠都可以被追查。

也就是說,深度學習的時代,只要出現在公共場合,勢必會留下記錄,除非你帶面罩。難怪有一家日本公司已經開始賣起隱私眼罩(privacy vis論文翻譯or),專門用來防備臉部辨識系統。

另外,中國當局也正在分析民眾在社交媒體的照片,評估誰可能是異議人士。中國百度以及騰訊的Bestimage的辨識準確度甚至比Google和臉書更高,分別是99.77%和99.65%,為全球辨識技術排名的前兩名。

連在美國加州Fresno郡,警方也正在測試一種叫Be論文翻譯ware的系統。它可以根據警方檔案、房產記錄、社交媒體貼文分析某個嫌犯的危險程度。另一個叫做COMPAS的系統,則號稱可以評估嫌犯再犯的機率。這種系統顯然挑戰了「正當的法律程序」這種基本的法律觀念。

深度學習機器另一個令人憂心的地方是,論文翻譯當愈來愈多企業使用它,就有些族群會不小心受到歧視。最尷尬的例子是2015年Google的照片app曾經把一名黑人和他的朋友全都自動標示為「大猩猩」。COMPAS也被批評對黑人有歧視論文翻譯

「沒有人會想設計出有歧視的系統,但是如果你用差勁的數據去訓練機器,它就會做出差勁的預測,」專門用人工智慧開發企業運用軟體的MetaMind創辦人索區爾(Richard Socher )表示。終究,人工智慧不會只是智能的問題,論文翻譯我們也要好好思考它牽涉到的道德議題。