今天是5月第二个工作日,邦主回顾了一下已经过去的这个4月,“网络直播”引发的争议在全世界有愈演愈烈之势。从直播杀人、自杀到学生教室上课、宿舍休息,从儿童性侵再到成人淫秽内容。似乎无论做什么,都能搬到网上进行直播。
5月的第一天,英国议会下院内政事务委员会提出了一份报告。
报告显示,对于极端主义思想和非法、有危害性信息的传播,包括脸书(Facebook)、推特(Twitter)、拥有YouTube的谷歌在内的多家大型社交媒体的不作为行为,令人感到震惊和愤怒。
有英国议员表示应严惩那些“不负责”的社交媒体公司。英国计划在下个月议会重开之后,进一步明确惩戒措施,未来或许对监管不力的社交媒体公司实施上百万英镑的罚款。
网络直播都捅了哪些娄子?
到底这些社交媒体都做了什么?让大家觉得这么愤怒?邦主整理了一下,在刚刚过去的两个月里,社交媒体视频直播类型,大概可以分这么几大类:
死亡恐怖类:直播杀人和自杀
2017年4月16日下午,美国俄亥俄州克利夫兰市的一名黑人男子在脸书上,直播枪杀了一名74岁的老人。此外,这名涉案男子在另一段视频中还声称,自己已经杀害了15个人,并将尸体丢弃在废屋中。
据脸书的数据,美国克利夫兰的杀人直播视频在脸书上流传了两个多小时后才被删除,这个时间已足够被大量用户点击观看或传播。
仅在10天后,在一处废弃的酒店里,一名21岁的泰国男子在脸书的直播平台上,直播了自己先吊死了亲生女儿,再上吊自杀的恐怖画面。
(婴儿的母亲在普吉岛的一座寺庙前抱着女儿的尸体)
英国路透社报道称,这个男人是在周一下午5点左右开始直播的。他共发布了两段视频,但直到周二下午5点多视频才被脸书管理员删除,这个视频在网上留存超过24个小时,点击量已超过30万次。
隐私泄漏类:直播学生上课或宿舍休息
中国一个名为“水滴直播”的网络平台,日前出现了国内多地学校的课堂直播画面。参与视频直播的学校涉及多个省份,被直播的年龄跨度也很大,从幼儿园至高中毕业班都在其中。画面中的直播场景多为教室,但也有某些学校的学生宿舍。
直播号为“10112”的直播频道将摄像头装在教室后面,截至2017年4月20日,观看量已经逼近4万。直播画面中的班级约有60余人,一位老师正在讲课,视频中只能看到学生的背影,但可以清清楚楚地看到学生们的每个“小动作”。
淫秽内容类:直播性侵或虐待儿童
2017年3月19日,美国芝加哥一名15岁少女失踪后,惨遭5、6名男子性侵,甚至通过脸书直播了整个犯案过程。当时吸引约40人同步观看,不过竟然没有一人报警,直到受害少女的母亲亲眼在脸书上目睹女儿遭到性侵,才立即向警局报了案。
搏出位类:各种你想得到的,想不到的
中国桂林一名网络主播因为点击率一直不高想出一“奇招”,找人一起“荒野探灵”。2017年3月22日凌晨,他们选中一间民房,因房内无人居住,他们用斧头将门锁砸开后谎称进入“鬼屋”。为了营造气氛还用上了“识鬼神器”——蜡烛。为了找出“蛛丝马迹”,三人还在民宅里翻箱倒柜,猜测这家人走得很急......
就在同一个月,一条“网红女主播让黄鳝钻入其体内”的低俗直播视频在网上热传。“黄鳝门”也成为继“脱衣门”、“造人门”之后,为了吸引更多观众,又一次出现的大尺度、无底线的网络视频直播。
监管短板在哪里?
如果说,2016年是网络直播元年;那么2017年的网络直播已经彻底失去了底线。大量的低俗、惊悚内容充斥着人们的网络。
对于重复发生的不当视频传播事件,社交媒体公司负责人们也都承认,需要在治理不良内容方面进行改善,加强举报与受理效率。在那些人人喊打的低劣网络直播盛行之时,为何监管的推进却又如此困难呢?邦主为大家总结了一下,有以下这三类原因:
看的人多,管的人少
像谷歌、脸书和推特这样的大型企业,只有区区几百名的工作人员监控着网络上十几亿次的浏览量,这明显,还没有得到公司的足够重视。
社会舆论导向不一
不同于恐怖主义、惊悚杀人视频出现时,一边倒的社会舆论;对于一些玩“擦边球”的网络直播,政府或公共服务部门会出现两种不同的声音。
2016年,英国女大学生在图书馆拍性爱视频,还在网上进行了现场直播。面对不少人的指责,纽卡斯尔大学学生协会主席克莱尔思温则认为:“这一事件突显出的事实就是,学生应该被提供更多的财政支持,我们主要关心的是学生的健康和安全,而不是去评判个人道德问题。”
利益驱使
就拿脸书来说,他们给直播功能找到了更直接的盈利方式——直播前插入一段视频广告,最长持续15秒。为了防止用户对社交网络上的内容兴趣逐渐减弱,这些社交媒体利用各种新鲜有趣的方式来吸引用户的注意。
各路人马都想了哪些招?
事实上,防止一个视频在网络上公开的最有效的方法就是,在发布的第一时间就及时阻止。社交网站有责任和义务对其发布的内容进行实时监控,这样才能确保这几类事件的再次发生。但到底怎么管,全球的各路人马也在绞尽脑汁地想办法。目前已经想出来的,大概是这么几招:
招数一:政府出马
英国议员们在已经提出的报告中表示,大型互联网企业应当同政府、警方、安全机构合作,支付应有费用,创建一个24小时运转、覆盖广泛的枢纽,监控并立即清理宣扬暴力、恐怖和极端思想的网络活动。
欧盟也正考虑以法律手段给社交网站制定统一的规则,从而能更有效地遏制网络仇视性言论和行为,以应对欧洲国家当前恐怖袭击风险加剧,民粹主义和排外情绪抬头的状况。
招数二:祭出科技手段
据脸书应用机器学习部主管杰奎因·坎德拉透露,他们公司已经在开发一种智能标记的技术,可以自动识别标注恐怖组织和极端份子的照片和视频。如今,脸书准备更进一步,把它延伸到视频直播上。据了解,这种技术的实现是基于一种人工智能算法,用来识别裸露、暴力以及所有不符合相关政策和规定的内容。
招数三:每个社交媒体自备人手,人工筛查
社交媒体公司需要为自己培训一个专门负责内容的监控小组,可以有能力识别并有权限删除违反有规定的内容。目前,脸书的员工会对被用户举报的内容进行核查。如果违规属实,内容就会被删除;但出现棘手或有争议内容的时候,脸书需将其提交给公司管理层做决策,这样层层递交的方式非常耗时。
招数四:延迟处理——秋后算账
还有一点就是,社交网站也应该像广播电台和电视台一样,坚持对直播视频进行一定时间的延迟处理。这将有益于对不良视频及时进行调整或删除,不过这仍然需要人工或人工智能来监控。
招数五:禁止下载视频
控制第三方从社交网站上下载视频。这样可以阻止第三方网站获取并再次传播暴力、淫秽视频。这样的小调整,至少可以避免不良视频在其他地方再次上传,进入互联网二次或多次传播后难以永久删除的问题。
这样一来,如果社交媒体需要核准每一个上传的视频,那么,这自然会使大批喜欢实时分享生活的用户离开,转去其他的平台,从而使得社交媒体的用户体验大打折扣,进而降低社交媒体的竞争力。另外,如果社交网站通过授权算法直接删除视频,很难避免会发生错误,用户的不信任,也使得社交媒体承担了一定压力。
但是,正如英国内政大臣安珀·路德(Amber Rudd)所说,脸书、谷歌和其它社交媒体公司并不仅仅是单纯的技术公司,同时,他们也是出版平台,就必须要承担一定的审核功能。一旦这些公司失去了这部分功能,那么,没有经过过滤的有害信息就会像病毒一样,在没有边界的网络世界蔓延。
那么,问题就来了,在如此复杂的社交媒体的世界里,社交媒体公司对于如何平衡用户体验和内容审核之间、保护个人隐私和公共安全之间的天平如何平衡?这是一个值得我们深思的问题。
| 今日华闻版权所有 未经许可不得转载 © ihuawen.com 2010-2015 |