藍色科技風預防AI詐騙科普帶內(nèi)容模板_第1頁
藍色科技風預防AI詐騙科普帶內(nèi)容模板_第2頁
藍色科技風預防AI詐騙科普帶內(nèi)容模板_第3頁
藍色科技風預防AI詐騙科普帶內(nèi)容模板_第4頁
藍色科技風預防AI詐騙科普帶內(nèi)容模板_第5頁
已閱讀5頁,還剩14頁未讀 繼續(xù)免費閱讀

付費下載

下載本文檔

版權說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權,請進行舉報或認領

文檔簡介

預防AI詐騙全民反詐·你我同行AI詐騙|詐騙手段|典型案例|防范意識PreventingAIfraudYOURLOGO主講:奧菲斯時間:20XX目錄PART.01什么是AI詐騙PART.02常見詐騙手段PART.03典型詐騙案例PART.04提高安全意識PreventingAIfraudYOURLOGO什么是AI詐騙PART.01全民反詐·你我同行什么是AI詐騙詐騙分子用AI技術換臉,偽裝成任何人。他們會利用AI技術,將他人的臉換成指定人的臉,冒充詐騙對象的親人、朋友等重要關系人。通過合成視頻或照片來“以假亂真”,擾亂詐騙對象的視線進而實施詐騙。什么是AI詐騙“AI詐騙”是一種利用智能AI技術實施詐騙的詐騙手段。20XX年5月24日,中國互聯(lián)協(xié)會公眾號發(fā)文提示“AI換臉”新騙局。20XX年5月24日,中國互聯(lián)協(xié)會公眾號發(fā)文提示“AI換臉”新騙局。20XX年以來,伴隨著深度合成技術的開放開源,深度合成產(chǎn)品和服務逐漸增多,利用“AI換臉”“AI換聲”等虛假音視頻,進行詐騙、誹謗的違法行為屢見不鮮。什么是AI詐騙針對技術手段日益更新的AI詐騙事件,20XX年11月25日,國家互聯(lián)信息辦公室、工業(yè)和信息化部、公安部聯(lián)合發(fā)布《互聯(lián)信息服務深度合成管理規(guī)定》(以下簡稱規(guī)定),自20XX年1月10日起施行。規(guī)定要求深度合成服務提供者對使用其服務生成或編輯的信息內(nèi)容,應當添加不影響使用的標識。提供智能對話、合成人聲、人臉生成、沉浸式擬真場景等生成或者顯著改變信息內(nèi)容功能的服務的,應當進行顯著標識,避免公眾混淆或者誤認。要求任何組織和個人不得采用技術手段刪除、篡改、隱匿相關標識。20XX年4月11日,國家信辦起草了《生成式人工智能服務管理辦法》(征求意見稿),提出AI內(nèi)容必須真實準確,其中也明確提到,禁止非法獲取、披露、利用個人信息和隱私、商業(yè)秘密。常見詐騙手段PART.02全民反詐·你我同行常見詐騙手段騙子通過騷擾電話錄音等來提取某人聲音,獲取后進行聲音合成,從而可以用偽造的聲音騙過對方。例如,某公司財務接到領導電話,要求立刻給供應商轉款2萬元,并將轉賬信息以郵件形式發(fā)送,轉款理由是避免繳納滯納金。由于老板的口音十分逼真,該財務信以為真,在1小時內(nèi)轉款完成,后發(fā)現(xiàn)被騙。第一種是聲音合成常見詐騙手段因為人臉效果更易取得對方信任,騙子用AI技術換臉,可以偽裝成任何人,再通過視頻方式進行信息確認。第二種是AI換臉值得一提的是,這些騙局中,騙子不是漫無目的地全面撒,而是根據(jù)所要實施的騙術,通過AI技術篩選受騙人群,別有用心地鎖定特定對象。例如,當進行金融詐騙時,經(jīng)常搜集投資信息的小伙伴就會成為他們潛在的目標。第三種是AI篩選受騙人群常見詐騙手段除了AI換臉、合成語音外,還有一些詐騙手段也可謂防不勝防,就在前不久就有騙子通過轉發(fā)微信語音的方式行騙。在盜取微信號后,騙子便向其好友“借錢”,為取得對方的信任,他們會轉發(fā)之前的語音,進而騙取錢款。盡管微信沒有語音轉發(fā)功能,但他們通過提取語音文件或安裝非官方版本(插件),可實現(xiàn)語音轉發(fā)。第四種是轉發(fā)微信語音典型詐騙案例PART.03全民反詐·你我同行典型詐騙案例友這般跟風“創(chuàng)作”,雖然大多數(shù)是把馬保國的頭像當作“搞笑”,但這背后反映出AI應用走偏帶來的風險隱患,值得人們嚴肅討論。正如馬保國本人在其個人短視頻賬號中所作的普法提示,友在未經(jīng)其本人允許情況下大肆使用其個人頭像,已涉嫌侵犯公民肖像權。我國民法典中明確規(guī)定,任何組織或者個人不得以丑化、污損,或者利用信息技術手段偽造等方式侵害他人的肖像權。除非是法律另有規(guī)定,未經(jīng)肖像權人同意,不得制作、使用、公開肖像權人的肖像。必須看到,AI換臉應用技術的泛濫,正給我們的生活帶來已知或未知的嚴重后果,由此引發(fā)的案件已多次發(fā)生。典型詐騙案例就在今年3月,廣州一女子在地鐵上乘車照片被AI“一鍵脫衣”,相關造謠圖迅即在絡廣泛傳播,事實上,這張裸體照并非真實照片,原圖中她衣著正常,完全沒有任何不妥之處,但卻被有心之人用AI軟件“一鍵脫衣”故意全散播,對個人已造成巨大傷害。女子地鐵照被AI“一鍵脫衣”典型詐騙案例“AI換臉”詐騙防不勝防近日,內(nèi)蒙古包頭警方發(fā)布一起利用AI實施電信詐騙的典型案例?;趯糜训男湃危由弦呀?jīng)視頻聊天“核實”了身份,郭先生在10分鐘內(nèi),先后分兩筆把430萬元轉到了對方的銀行賬戶上。來自福建的郭先生是一家科技公司的法人代表。今年4月,他的好友突然通過微信視頻聯(lián)系他,稱自己的朋友在外地競標,需要430萬元保證金,想借用郭先生公司的賬戶走賬。事后,郭先生撥打好友電話才得知被騙,原來騙子通過AI換臉和擬聲技術,佯裝好友對其實施詐騙?!爱敃r是給我打了視頻的,我在視頻中也確認了面孔和聲音,所以才放松了戒備?!惫壬潞笳f。這類案件雖與馬保國所遭遇的被換臉惡搞屬于不同性質(zhì),但人們必須要警惕在這種泛娛樂氛圍中大家會逐漸失去對AI換臉的風險意識。如果AI換臉能夠被輕松應用,這將大大降低侵權、詐騙行為的門檻,也將令所有人陷入防不勝防的悲催境地。提高安全意識PART.04全民反詐·你我同行提高安全意識保護隱私信息從源頭著手,不要輕易提供人臉、指紋等個人生物信息給他人,不過度公開或分享動圖、視頻等;不提供可供復制模擬的信息,騙子自然無法得逞。陌生鏈接不要點,陌生軟件不要,陌生好友不要隨便加,防止手機、電腦中病毒,微信、QQ等社交軟件被盜號。提高安全意識陌生人的電話要時刻保持警惕,對不認識人的禁止轉賬。如果有人自稱“熟人”通過社交軟件、短信以各種理由誘導你匯款,務必要通過回撥對方手機號、見面等渠道核驗對方身份,不要未經(jīng)核實隨意轉賬匯款,不要輕易透露自己的身份證、銀行卡、驗證碼等信息。一旦發(fā)現(xiàn)風險,及時報警求助。除了常規(guī)的電話和視頻,還可以在通話的過程中,加入一些只有你們兩知道的人和事。像上述案例中的AI換臉,我們可以在視頻的過程中,要求對方將手放在臉部,確認視頻畫面是否有變形。“AI換臉”詐騙防不勝防

溫馨提示

  • 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯(lián)系上傳者。文件的所有權益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會有圖紙預覽,若沒有圖紙預覽就沒有圖紙。
  • 4. 未經(jīng)權益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 人人文庫網(wǎng)僅提供信息存儲空間,僅對用戶上傳內(nèi)容的表現(xiàn)方式做保護處理,對用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對任何下載內(nèi)容負責。
  • 6. 下載文件中如有侵權或不適當內(nèi)容,請與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準確性、安全性和完整性, 同時也不承擔用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。

評論

0/150

提交評論