门锁品牌

招商加盟

十大品牌

热点新闻

行业展会

更多频道

会员服务

首页

 > 

新闻资讯

 > 

行业热点

 > 

详情

AI算法能“偷听”:突破伦理的“灰犀牛”并不远

2024-06-23

中国门锁网

网络

6027

在人工智能和大数据时代,公民个人信息权益的保护,相较于技术发展更加脆弱,必须尽快找到可行的应对之道。人工智能算法能“偷听”用户信息人工智能(AI)算法是否可以“...

在人工智能和大数据时代,公民个人信息权益的保护,相较于技术发展更加脆弱,必须尽快找到可行的应对之道。

人工智能算法能“偷听”用户信息

人工智能(AI)算法是否可以“偷听”你的信息?对于这样的疑问,许多人恐怕还半信半疑,难以给出确定答案。但剑桥大学的一项最新研究却表明:这是很有可能的。

“偷听”的原理是:当人们轻敲手机和平板电脑的屏幕时会产生声波。这些声波通过设备的内置麦克风收集、恢复,从而就可“听到”敲击屏幕的声音。结合人工智能算法,听到的声音与键盘位置关联,就可实现“偷听”用户信息。

开展这项研究的剑桥大学计算机实验室用其自己开发的算法模型进行了实验,结果表明,对于四位数密码而言,该模型在10次尝试后可以准确恢复54%的密码;20次尝试后可以恢复150个密码中的91个,识别准确率为61%。

该项研究的论文于3月26日发表,题目就叫《听到你的触摸:智能手机上的新声学侧通道》。

对于已经基本离不开智能手机的我们来说,这项研究结果无疑是当头一棒。就在前不久,某些手机APP“偷听”用户信息的消息,在很短时间内刷爆朋友圈,引发了巨大质疑。相关平台迅速出面辟谣,而许多针对性的测试也一时拿不出确凿证据。

坦率地说,我们不相信相关平台就是在有意地“偷听”,而更倾向于认为,这是大数据在自动生成“用户画像”。只是画像的精准度,也着实让人害怕。

扎紧技术伦理和法律篱笆

但从另一个角度来看,怀疑“偷听”不啻为一声响亮的警钟,它再次对我们发出警示:在人工智能和大数据时代,公民个人信息权益的保护,相较于技术发展更加脆弱,必须尽快找到可行的应对之道。

同时,对以“进步”为名的技术发展,我们也必须保持高度警惕和怀疑,并时刻从人类尊严和技术伦理的高度详加审视。这是必要的审慎,绝不是螳臂当车的保守,因为墨菲定律早就说得非常清楚——如果事情有变坏的可能,不管这种可能性有多小,它总会发生,并造成最大可能的破坏。

“偷听”有可能发生吗?剑桥大学的研究已经表明:肯定会的。虽然囿于技术的局限,目前尚无法偷听得那样精确。但假以时日,人工智能算法装备的智能手机等设备,肯定会把人“偷”得赤条条。而以技术发展在当今的迅猛之势,这个时日其实并不多么遥远。

我们已清楚地看到“灰犀牛”就在那里,它正在向我们冲来。可是出于无数的利益计算和犹疑,人类就是找不到切实的预防、应对之策。

这正是我们当前面临的恼人困惑。对于公民个人信息安全,目前能够想到的办法,无外乎以繁多的法律法规条款,尽可能扎紧篱笆,同时加大惩处力度。但这种办法,受制于差异极大的文化环境和执法力度,常常很难从纸面上真正落地。

而更加薄弱的是,技术伦理明显还未受到应有的重视,更缺乏现实的灌输培育。很多科技者仅仅醉心于技术突破,由于和远端的技术应用者以及被影响者相隔着明显距离,他们几乎不可能感受到技术发展可能带来的麻烦与痛苦。对于“偷听”的怀疑,其实恰恰反证了技术伦理的缺位可能带来的问题。

人工智能、大数据是当今社会发展的趋势,没有任何力量能够阻止它们前进的步伐。我们认可并且也愿意享受这样的进步,但前提条件是,它们应是为人类服务,而不是羞辱、奴役人类。

————————————————————

免责声明:凡本网注明“来源:XXX(非本网)”的作品均转载自其它媒体,转载目的在于传递更多信息,并不代表本网赞同其观点和对其真实性负责。如稿件版权单位或个人不想在本网发布,可与本网联系,本网视情况可立即将其撤除。

AI算法能“偷听”:突破伦理的“灰犀牛”并不远 

上一篇:B端火热C端冷清,智能门锁如何走向下一个新高度

下一篇:屡败屡战的谷歌机器人计划,都交了哪些学费?

今天已经有 282 人成功获取加盟信息

即刻提交信息!获取权威加盟政策

  • 您的名字

  • 联系方式

  • 用户信息授权确认书(仔细阅读)

    新闻发布请联系我们

    13520832007

    微信
    版权与免责声明:部分文章来源于网络以及网友投稿,转载出于传递更多信息为目的;如转载稿涉及版权问题,或信息对您造成影响,请及时联系我们进行修改或删除处理!

    一对一资深客服 免费在线咨询

    近期已为282位经销商 提供免费咨询服务

    x