刷卡機pos聲音素材
網上關于刷卡機pos聲音素材的刷卡知識比較多,也有關于刷卡機pos聲音素材的問題,今天第一pos網(www.cnksdq.com.cn)為大家整理刷卡常見知識,未來的我們終成一代卡神。
本文目錄一覽:
刷卡機pos聲音素材
“身邊的數據安全風險”
我們是數據的創造者,或許也是數據陷阱的受害者。泄露風險無處不在,為避免垃圾短信、騷擾電話,防止落入騙局,保護財產名譽,關注身邊的小數據,守護數據安全勢在必行。
隨著AI技術發展不斷提速,不少人嘗試利用相關工具協助處理工作、生活中的很多問題。不過新技術也被一些犯罪分子利用。網絡安全公司McAfee今年4月面向7個國家開展的一項調查結果顯示,10%的成年受訪者曾遭遇AI語音詐騙,另有15%表示知道其他人遭遇過類似騙局。
南都大數據研究院留意到,利用AI技術進行語音詐騙的案例并非近期新發。早在2021年,我國公安部網安局就公布過類似案例。且隨著AI技術應用門檻不斷下降,近期國內部分互聯網平臺也陸續有網民發布基于明星語音素材訓練而成、幾可亂真的AI音視頻。
調查顯示10%受訪者
曾遇AI語音詐騙
在最新技術的加持下,AI合成語音正越來越逼真,對話效果越來越好。不過新技術也被一些犯罪分子利用。McAfee今年4月面向美國、英國、法國、德國、澳大利亞、印度和日本7個國家的7054名成年受訪者開展調查。結果顯示10%的成年受訪者曾遭遇AI語音詐騙,另有15%表示知道其他人遭遇過類似騙局。
McAfee調查結果顯示,10%的成年受訪者曾遭遇AI語音詐騙。(圖據McAfee調查報告)
調查結果顯示,不法分子主要利用AI語音合成技術給受害者留下假的語音郵件,或者冒充他們的好友打電話給他們,以遭遇車禍、搶劫等借口誘騙受害者轉賬。在受害者中,有77%表示在詐騙中損失了錢財,其中三分之一表示損失了超過1000美元,更有7%表示損失了5000-15000美元。
McAfee首席技術官SteveGrobman稱:人工智能帶來了難以置信的機會,但任何技術都有可能被惡意使用。這就是我們今天所看到的,AI工具的獲取和使用變得越來越容易,也讓網絡犯罪分子能夠以更加難以識破的方式進行詐騙。
南都大數據研究院監測發現,AI語音詐騙正呈高發趨勢。據央視財經綜合多家外媒報道,近期美國和加拿大各地使用AI合成語音進行電信詐騙的案例多發,不少上當的都是老年人。加拿大警方稱,最近加拿大各地都有不少類似案件發生,涉案金額已達數百萬加元。有受害者表示,犯罪分子使用的聲音和她兒子的聲音簡直一模一樣。
今年3月,美國聯邦貿易委員會(FTC)針對AI語音詐騙問題發出警示,提醒公眾接聽電話時留心判斷對方是真人還是AI語音,并建議通過主動回撥等方式驗證來電真實性。
美國聯邦貿易委員會針對AI語音詐騙問題發出警示。
AI“老板”“好友”口音逼真
國內已有相關案例
南都大數據研究院留意到,利用AI技術進行語音詐騙的案例并非近期新發。早在2019年,《華爾街日報》就曾報道,有詐騙分子利用AI模仿了英國某能源公司的母公司CEO聲音,成功讓該能源公司高管相信自己正在與母公司的老板通電話,并誘騙其通過匈牙利供應商向詐騙分子轉賬22萬歐元。被騙高管表示,在整個通話過程中,老板的德國口音非常逼真,使其對聲音的真實性沒有任何懷疑,直到被要求再次轉賬時才發覺了事件異常。在立案調查后,警方發現資金被轉到匈牙利供應商的銀行賬戶,隨后又轉往墨西哥和其他地方,但嫌疑人的具體身份無法確定。
在國內,也有媒體曾于2019年報道不法分子利用AI技術制作真人語音,然后通過社交平臺冒充受害者好友騙取錢財。據新華社報道,2019年9月,市民陳先生收到朋友的一條微信語音,提出借款5000元。因為收到“貨真價實”的語音,陳先生并未懷疑,馬上通過微信向其轉賬。“好友”見狀又問陳先生可否再轉9000元。陳先生才警覺起來,通過電話聯系該名好友,發現自己上當受騙。經警方初步了解,詐騙分子通過獲取陳先生好友微信賬號、密碼及語音等信息,博取陳先生信任后,以“朋友”微信及語音對其進行誘騙。
2021年初,公安部網安局曾發文提醒公眾,注意防范合成聲音和AI換臉等人工智能新型詐騙手段。據公安部網安局公布案例,2020年12月,國內某公司財務小王接到領導電話,要求立刻給供應商轉款2萬元,并將轉賬信息以郵件形式發送,轉款理由是避免繳納滯納金。由于老板的口音十分逼真,小王信以為真,在1小時內完成轉款,后發現被騙。
提供3秒音頻
即可克隆特定人物聲音
有業內人士指出,其實AI語音合成技術應用已久,例如地圖導航的明星語音包便利用了類似技術。但以往制作這類語音包時,通常要求說話者在安靜環境下念出一定量的錄制文本,例如一篇5-10分鐘的文章,供AI獲取足夠多的發音特征,再進行合成;如果遇到說話者沒讀過的生僻字,AI就可能出現發音失真等問題。不過隨著技術不斷發展,如今AI已可對發音進行一定的推理模仿,即使是說話者從未讀過的字眼,也能模仿出相似音色,因此對語音素材要求不斷下降。越來越低的技術應用門檻確實給不法分子提供了可乘之機。
McAfee調查報告也指出,其安全研究人員在互聯網上發現了十幾種AI語音合成工具。研究人員使用其中一種工具進行測試,發現只要提供3-4秒的錄音,這個免費AI工具就能創造出一個約有85%相似的克隆人聲。
雖然風險顯而易見,但AI語音合成技術的發展仍在不斷提速。今年1月,微軟團隊發布一個AI語音合成模型VALL-E。據介紹,該模型只需要說話者讀出3秒指定內容的音頻作為訓練素材,即可精確地模擬說話者的聲音。從已公開的合成語音效果來看,VALL-E不僅能還原說話者的音色,還能模仿說話者的憤怒、困倦、愉悅等多種情緒,甚至連說話者的環境背景音也能準確還原。
微軟也意識到該模型可能助長惡作劇和欺騙的可能性。在相關論文中,微軟表示“由于VALL-E可以合成符合說話人身份的語音,因此濫用模型可能會帶來潛在風險,例如欺騙語音識別或冒充特定說話人。為了降低此類風險,可以構建一個檢測模型來區分音頻剪輯是否由VALL-E合成。在進一步開發模型時,我們還將把微軟人工智能原則付諸實踐。”
微軟團隊發布名為“VALL-E”的AI語音合成模型。
國內互聯網平臺
已出現人聲克隆音視頻
南都大數據研究院監測發現,隨著AI技術應用門檻不斷下降,近期國內部分互聯網平臺也有網民發布基于明星語音素材訓練而成、幾可亂真的AI音視頻。
已故藝人、當紅歌手、游戲角色……不少知名人物的人聲克隆作品已在互聯網上公開。
在嗶哩嗶哩等互聯網平臺上,南都研究員發現不少網民已利用Sovits4.0、DiffSinger等開源AI項目制作以人聲克隆為主題的音視頻。這些音視頻主要通過提取一個特定真人的聲音作為訓練數據,讓AI模型習得其聲線,實現歌曲翻唱等目標。從平臺搜索結果可以看到,相關音視頻涵蓋已故藝人、當紅歌手、游戲角色等多領域的人物聲音。部分網民也在相關音視頻的評論區表達對這類AI技術的擔憂。
有網民擔憂AI技術可能被用于突破聲紋識別、電話詐騙等場景。
防范建議:
控制社交媒體可見范圍
與親密聯系人約定“關鍵詞”
面對利用AI人工智能等新型手段的詐騙,公安部網安局2021年初曾提出三點防范建議:
多重驗證,確認身份。在涉及錢款時,盡量通過電話詢問具體信息,確認對方是否為本人。
保護信息,避免誘惑。加強個人信息保護意識,對于不明平臺發來的廣告、中獎、交友等鏈接提高警惕,不隨意填寫個人信息,以免被騙子“精準圍獵”。
相互提示,共同預防。做好家中老人的宣傳防范工作。提醒老年人在接到電話、短信時,要放下電話,再次撥打家人電話確認,不要貿然轉賬。
McAfee也在其調查報告中針對AI語音詐騙提供了一些防范建議。
在防范被提取聲音數據方面,McAfee建議網民在社交媒體分享內容時,考慮通過隱私設置將可見范圍限制在朋友和家人身上:社交媒體內容的可見范圍越廣泛,信息泄露的風險就越大。
在防范AI語音詐騙方面,McAfee建議公眾與家庭成員等親密聯系人約定一個“關鍵詞”:一旦出現不同尋常的求助信息,可以用關鍵詞來確認對方是真人還是AI語音。此外,公眾對任何來電都應該保持理性,可通過詢問具體信息、回撥號碼等方式確認來電者身份,切忌因一時激動而盲目采取行動。
出品:南都大數據研究院 數據安全治理與發展研究課題組
采寫:南都研究員 李偉鋒
以上就是關于刷卡機pos聲音素材的知識,后面我們會繼續為大家整理關于刷卡機pos聲音素材的知識,希望能夠幫助到大家!

轉載請帶上網址:http://www.cnksdq.com.cn/shuakatwo/208894.html
- 上一篇:刷卡機為什么顯示無法使用
- 下一篇:刷卡機有一個信號沒反應