「进传销的人能玩手机吗」AI时代,没有“坏人”能够走进广场

2020-01-11 08:59:55

「进传销的人能玩手机吗」AI时代,没有“坏人”能够走进广场

进传销的人能玩手机吗,利用人工智能预防犯罪以及促进社会治理,已经成为世界各国加强社会安全建设的一个趋势。

人工智能技术已经在政法领域得到应用

《民主与法制时报》记者 杜涛欣 报道

  8月29日,为治理路人闯红灯顽疾,江苏无锡交警上线了“闯红灯人脸识别系统”,首日就有215人被抓拍。

  随后,安装在路口前端的信息大屏上就发布了当事人闯红灯的特写照片、个人姓名等信息。

  这只是众多科技创新在社会治理领域应用的一个微小缩影。

  2016年10月21日,中央政法委举行第四次百万政法干警学习讲座,以科技创新在未来社会治理中的作用为题,邀请阿里巴巴集团董事局主席马云进行讲解。评论分析,这预示着科技创新在社会治理中将会得到大规模的应用和推广。

  马云在讲课中指出,未来的政法系统,是离不开互联网、离不开大数据的。这是不同的设计思考,按照这个预防思路,“坏人根本走不进广场”。

  “大数据怎么帮助我们的公安干警做预判?一个人买高压锅很正常,一个人买钟也很正常,一个人甚至买一个火药也正常,买个钢珠也正常,但是一个人合在一起买那么多东西,就一定不正常了。”马云说,可以通过大数据的计算,利用人工智能技术来自动锁定这些可疑的目标,并发出预警。

  其实,利用人工智能预防犯罪以及促进社会治理,已经成为世界各国加强社会安全建设的一个趋势。

  ai的发展也掀起了一场社会治理的变革。

  据国外媒体报道,迪拜警方日前发布了一款新型人工智能设备,这款设备利用犯罪识别软件,能够在违法犯罪事件发生之前对其进行精确预测,从而减少违法犯罪事件的发生,降低人类警察可能会错过违法犯罪事件发生的概率。

  而这样的技术,在中国将得到更好的展现。

  马云在这次百万政法干警学习讲座中就表示,在整个数据时代最重要是“事前诸葛亮”预防机制。所以数据时代是预防时代,就拿公安部门来讲,要做的是把“坏人”找出来,不能放过任何一个“坏人”。

  而大数据可以帮助警方实现这一目标,不但把这些“坏人”找出来,还能预防这些“坏人”。

  马云介绍,阿里巴巴政法体系合作的产品已经很多,公安、法院、检察院、国家安全、反恐都在开始采用。

  他举例说,杭州就有几万个摄像头,已经取得大量的数据,但是人工无法处理,只有人工智能可以。

  虽然各国在大计算处理数据能力方面的角逐非常激烈,但是马云认为,中国今天大数据的处理能力,是世界罕见的,这有利于促进社会智能化。处理数据能力不是天生有的,也不是实验室研究出来。“我们每一天被各式各样的黑客攻击两亿次,小偷越强警察只能越强,中国13亿人,多复杂,所以我说没有理想主义是做不起来的。”

  马云表示,假设阿里巴巴6亿用户中,1%是“混蛋”,因为阿里巴巴没有执法权,所以没办法处理,但是可以预防,才能让这个系统慢慢走下去。在大数据时代如果不能预防、把危险消灭在萌芽之中,麻烦就大了,任何一个战略离开组织保障都和茶馆里聊天是没区别的。

  他表示,随着人工智能的推进,商业组织也会发生大变化。“第一次技术革命诞生的是工厂,第二次是公司,这次诞生的是平台。”

  “例如航母就是平台。任何人和组织在未来30年都会发生天翻地覆的变化,我们的干警、政法体系,这个组织就会有变革。”马云说。

  在人工智能的监控下,公共场所等许多领域都将成为被完全掌控下的“广场”,马云表示,今天的策略是让“坏人”走不进这个“广场”,走进去之前就被预测出来了。

  人工智能的应用,将会使社会组织发生极大的变化,“以前的小偷是公安干警里的反扒能手去抓,现在是机器去抓。这个变迁是非常之大的。”马云说。

  而在美国,斯坦福大学日前发表的一份研究报告显示,美国城市已经为公共安全和防护部署人工智能技术了。

  报告显示,到2030年,典型的北美城市将在很大程度上依赖人工智能。这些措施包括可以检测到指向一个潜在犯罪的异常现象的监控摄像机、无人机和预测警务应用。

  人工智能工具已经在打击例如欺诈犯罪等的经济犯罪中得到了应用,通过监视扫描社交媒体来降低宗教极端主义组织以及一些其他的暴力组织团体的激进犯罪的可能性。

  在国务院发布的《新一代人工智能发展规划》中明确指出,利用人工智能提升公共安全保障能力。规划指出,促进人工智能在公共安全领域的深度应用,推动构建公共安全智能化监测预警与控制体系。

  围绕社会综合治理、新型犯罪侦查、反恐等迫切需求,研发集成多种探测传感技术、视频图像信息分析识别技术、生物特征识别技术的智能安防与警用产品,建立智能化监测平台。

  其实,这些技术在国外已经开始得到推广和比较普遍的应用。

  在日本东京,警方对外表示,将利用人工智能技术保障2020年东京奥运会,以此来应对可能存在的恐怖袭击行动。

  东京警方更是将这次奥运会列为“高科技安全起始年”,他们对外宣称,东京警方正在寻求将人和技术结合起来的下一代安全机制,以查明大批恐怖分子。

  “当通过视频监控时,嫌疑人站在相机面前脸会变红。”东京警方介绍,日本大型安保公司alsok已经开始运作其“情感可视化系统”。

  人工智能衡量一个人心理状态的基础是“小抖动”,这些震动的幅度可以衡量一个人的心理起伏。它通过分配数值和颜色显示人的心理状态,当颜色变红时,表示该人极具“攻击性”。

  该公司发言人表示,大量数据表明当恐怖分子在进行恐怖行为前,他的身体都会发生颤抖,情绪都有波动。

  据介绍,这套系统由一家俄罗斯公司开发。去年5月份召开的七国集团首脑会议上还使用了这套系统,并在行李检查现场进行了测试,最后虽然没有发现可疑的人,但系统可以识别出排队队伍中“烦躁”的人。

  除此之外,在今年2月份东京马拉松比赛期间,该系统进行了一次可行性实验,它采用了一个人工智能新系统预测恐怖主义。“如果计算机检测到可疑物品或‘人的不自然的动作’,那么这很有可能是恐怖主义的一个迹象,随后将触发报警。”该公司负责人对媒体表示。

  而类似的应用,将会在反恐领域越来越普及。

  获取公众信任也是公共安全领域内人工智能应用的一大难题。

  斯坦福大学发布研究报告表示,“虽然该项人工智能应用程序可能会对预防违法犯罪事件的发生产生积极的影响,但是该项技术的诞生会对数以百万计的工作产生强有力的冲击,使得传统工作面临前所未有的风险与挑战。”

  报告里还提到:“预计到2030年,这些具备预测功能的‘警察’将被大批量地投入使用,最终被人类所依赖。”

  一位参与起草这份报告的研究人员警告说:“虽然这些人工智能工具的出现可以有效减少违法犯罪事件的发生,但是,我们必须要十分谨慎对待这些人工智能工具,因为过度的使用和依赖人工智能工具很有可能产生过犹不及的反作用。”

  因为,执法机构对于通过监测社交媒体来截获一些重大的破坏性事件的信息越来越感兴趣,与此同时还将对大型的人员集会活动进行有效的监测,从而进行安全性分析。

  而目前比较重要的工作就是进行人群模拟分析,通过该分析来确定具体应该如何来控制人群。

  同时,也必须注意防止人工智能系统去复制歧视行为,比如机器学习通过非法种族指针去识别人群,或是通过高度相关的替代因素。

  另一方面,私人也越来越担心带有人工智能功能的监控,尤其是在监控设施普及的城市。

  在美国的一些城市已经引起争论,尤其是驱动应用的人工智能专业知识和基础数据集中在一小批大公司手上。

  因此,随着人工智能技术的不断发展,其应用领域的范围被相关部门进行了限制,阻碍了人工智能的快速发展。

  斯坦福大学的研究报告指出,如果社会大众对于人工智能的发展怀着一种恐惧和怀疑的态度,将会阻碍人工智能技术的发展,尤其会阻碍人工智能技术在安全方面的发展。

  “相反,如果社会大众对于新型的人工智能技术怀着一种更加开放和包容的心态,那么在未来的几十年内,人工智能技术将会飞速发展,深刻改变整个世界,造福全人类。”报告中这样写道。