刚才看到一个热点新闻,让我感觉太恐怖了,真是以后自己亲眼看到的东西都不能相信了,是一个大老板,接了一个非常好朋友的视频电话,说有急用,向他借430万,这个朋友不差钱儿,现在都亲自打电话过来了,那肯定比较着急,所以他就打过去了,后来发现这个人是骗子,用的AI变成了他朋友的样子,他就这样上当受骗了。
能随随便便一个视频电话,就把430万借出去,那肯定不是一般关系,Ai现在真是太强大了,他能变脸大家应该都知道的,他也能变声你们知道吗? B站里面有个博主,就通过ai把孙燕姿的声音拿来唱任何人的歌曲,我最近一直在听,和本人唱的没有什么区别,如果仅仅如此,那还可以防范。
但像面新闻里面这起诈骗案,要成功只有样貌和声音肯定不行的,语气动作各种小习惯肯定也要装得到位才行,一般的骗子他能做到这种程度吗?所以,要不就是熟人作案,要不就是目标被盯很久了。
大家想一下,这还不够恐怖吗?试想一下,如果以后自己被这样一个人盯上,那我们应该怎么防?可以说根本就防不胜防,除非出台相关规定,任何视频软件必须屏蔽相关的AI插件才行,就像在日本拍照必须要有声音一样。但是啊,这种措施也只能防普通人,我感觉稍微有点技术都能破解。
不过我倒是想到一个笨方法,就是以后要准备两个微信,两个手机号码,碰到关系最好的人我联系借钱或者询问重要的事的时候,直接拿另外的联系方式打给对方,这样应该保险点。
如果还是不放心的话,那么像重要的事情,有条件的话就直接面谈吧,我相信在仿生机器人没有出来之前,也只有面谈能稳稳当当的破这一招了,或者,你们有什么好方法吗?可以聊一下。