用户“MOISTG”对问题“腾讯云新用户成团能临时增加内存吗

开始送免费体验的机器了。最长使用体验时间8天,每天早上9:30 可以申请,每天都有名额限制,需要的小伙伴早点等候在电脑旁吧。
云服务器 CVM:
云服务器(Cloud Virtual Machine)是高性能高稳定的云虚拟机,可在云中提供大小可调的计算容量,降低您对计算规模预估的难度;您可以轻松购买自定义配置的机型,在几分钟内获取到新服务器,并根据您的需要使用镜像进行快速的扩容。
体验机型配置如下:
1 Mbps带宽
30 GB数据盘
最长体验时间为8天:
申请地址:首批腾讯云授权代理商,5000个客户的见证!企业购买首选!提供直播解决方案,游戏上云,免费提供部署方案。 流程:→ [注册帐号] → [] → [选择自行支付]
→ [申请发票] → [联系客服] → [提供腾讯云订单号]→ [完成]
第一步:咨询&登录
咨询客服确认价格、进入腾讯云官方网站
用您的帐号登录好,公司购买建议用企业邮箱,我司提供代注册(提供邮箱和手机号),代备案等基础服务,一对一微信QQ群支持。
第二步:同意关联帐号
点击连接 (注册完成后立即点击同意后购买,联系我们审核,没有关联帐号无法获得折扣优惠。)
第三步:自付返现或代付
需要腾讯云官方的原价发票的请直接在官方自行充值购买,购买完后联系本站客服获取返现优惠。或可选择代理支付,然后联系我们转账到我司账户,我司代付款项后开通,发票由我公司根据转账金额开具。
优惠折扣说明
与腾讯云官方优惠同时叠加,优惠相当于折上折,云服务器1年83折,第2年7折,第3年5折,联系客服有惊喜。
在故障跟进处理、特殊需求跟进解决等方面为客户提供专家1V1服务,可获得更高的DDoS防御阈值,避免业务不可访问的情况出现,为您配备大客户经理,提供7x24小时的快速响应服务。深圳、广州、东莞区域上门服务,提供免费的技术支持服务。
为何选择我们
10年老牌互联网公司,腾讯云第一批代理商、认证授权服务中心,积累深厚云服务器管理运营开发经验,免费提供部署方案,人员上门服务,客户一对一VIP微信群或QQ群技术支持服务,我们支持全部产品,多种优惠购买模式,官方原价发票,或我司代付款,代开发票,完全正规。
全国服务热线1深圳预约上门林经理 广州预约上门林经理 售后绿色通道 1-808
大咖云集,知识分享的开发者技术社区
实战干货、在线直播、专家问答、技术论坛,学习,成长,分享,共建
腾讯云动态 /
腾讯云学堂 /
腾讯云教程 /
伴随着互联网应用的拓展和大数据技术的进步,信息的生成、留存和传输更加便捷。在体验信息技术带来的新福利的同时,我们也要面对和解决随之而来的信息更加容易泄露、更加容易传播、不对称鸿沟加剧的新风险。&近期的用户个人信息泄露丑闻再次将个人信息保护拉到公共舆论的聚光灯下。许多原来被用户或消费者给予信任的应用和服务,可能从事着见不得阳光的个人信息不法收集和利用。这让我们再次认识到个人信息保护的艰巨性。&腾云智库专家、中国社科院文化法制研究中心研究员周辉认为,“设计更加有效的综合治理方案,实现个人信息的切实保护,是当前现实而紧迫的时代命题。”&周辉中国社科院文化法制研究中心研究员,《网络信息法学研究》执行主编,中国法学会网络与信息法学研究会理事兼副秘书长、中国互联网协会个人信息保护工作委员会副秘书长。1个人信息保护是紧迫的时代命题首先,这关乎公民的人格尊严和信息自主权。算法歧视、精准营销的背后就是信息收集基础上的挖掘利用。个人信息保护不力将使得个人从信息的主体沦为信息利用的客体。&其次,这关乎整个社会的信任度和安全感。人民的生活安宁和生命财产安全。因为个人电话泄露,我们经常受到陌生电话骚扰,进而导致许多白名单以外的陌生人联系被频频“挂断”,现代社会从熟人间的“特殊信任”向陌生人间的“普遍信任”发展受到严重干扰。随意收集、擅自使用、违规披露消费者个人信息,也严重损害了广大人民群众的生活安宁和人身财产安全。&再者,用户个人信息受损、社会信任下降,反过来也会影响整个网络信息产业的健康长远发展。数据要足够多才能发挥大数据的优势,有关的技术和应用才可能进一步成长、进步。个人信息得不到有效保护将直接挫伤整个社会的数据供给积极性。&因此,设计更加有效的综合治理方案,实现个人信息的切实保护,是当前现实而紧迫的时代命题。2制定有针对性的治理方案第一,不断提高制度设计的精准性、系统性和协调性。应当区分不同社会群体、不同信息类型、不同风险程度、不同影响后果,制定有针对性的治理方案,不断提高个人信息保护的精准化、精细化水平。&对于未成年人或在校学生的信息,要制定相对于其他一般群体更加严格的保护方案;对于涉及个人基本资料的敏感信息,要采取相对于其他已经公开的普通信息更加严密的保护措施;对于安全风险较高的个人信息,在收集、存储、利用、传输过程中要设计更加稳妥的管理规程;对于泄露会造成严重不良影响的信息,要划入更高的信息安全等级进行保护。出台涉及个人信息安全的制度,也要做好影响性评估和制度配套。例如,实名制管理增加了个人信息收集的范围,就要对实名信息的留存、使用、处理作出更严格、具体的制度设计。3单纯强调加快立法是不足够的第二,持续加强立法、司法、执法、普法联动。个人信息保护离不开法律的规范和保障。但是单纯强调加快立法是不足够的。&一方面,在大数据时代,个人信息处理的手段措施和个人信息利用的商业模式变化频繁,与法律要保持相对的稳定性和适当的预见性之间存在一定的张力。制定个人信息保护专门性立法,涉及利益的广泛调整,应当在对信息处理利用情况有全面、成熟认识基础上积极稳妥推进,不能操之过急。&另一方面,徒法不能以自行。我国并非没有个人信息保护方面的立法,在攻坚专门立法的同时,完全可以在既有的法律框架下强化执法。&根据《民法总则》《消费者权益保护法》《网络安全法》等法律的规定,公民的个人信息受法律保护。但是许多情况下,公民对于个人信息被收集、使用的情况并不知晓,取证索赔困难,民事维权既难以发起,也易孤掌难鸣。&加强个人信息保护行政执法正可以弥补民事救济的不足。有关主管部门对市场上经营者违法收集、使用消费者个人信息的行为,及时进行查处打击非常必要。信息保护执法上的不作为对违法犯罪的放纵可能会带来更严重的影响。除了强化执法零容忍,有效发挥能动司法作用、持续提升普法教育质效也是个人信息保护治理方案的重要组成部分。4多方共治理与立体监督第三,大力推进政府、企业、社会、个人共治。个人信息保护属于社会性难题。解决这一问题,政府、企业、社会组织、广大网民都能发挥作用、都应发挥作用、都要共同参与。真正形成多方联动、齐抓共管、协同治理、良性互动的态势,除了前面提到的政府要立好规、严执法,还需要企业真合规、遵守法,行业协会等社会组织加强自律自治,新闻媒体做好监督,公民个人做好防范。&这其中特别重要的是,掌握个人大量信息的政府机构、电信企业、互联网企业等都要担起信息保护的主体责任,有效构建内部的公民(用户)信息安全风险防控机制和权限管理机制,防止内部人泄露信息、防范外部人窃取信息、禁止违法交易信息、控制高风险传输信息。&第四,统筹实施法规、技术、市场、信息一体化的立体监管。我们还必须认识到个人信息泄露背后的技术影响、灰色市场和信息不对称。除了构建法律规范体系,还要构建技术标准体系、市场监管体系和信息披露体系。在互联网环境下,个人的浏览记录、位置信息甚至账户信息、指纹信息,都可能被某些软件代码悄然窃取。这些信息再流入某些大数据企业进行数据挖掘。许多互联网用户对此情形,既一无所知,也无可奈何。&目前已经出台的《信息安全技术公共及商用服务信息系统个人信息保护指南》、《信息安全技术个人信息安全规范》等技术标准具有一定的积极意义,但是面对变化发展的网络信息应用,其在内容和操作上仍难免产生很多问题。对于个人信息保护的日常实践而言,法律只能提供一个规范框架、规则体系,能否建立有效、专业的动态的行业标准引导、明确信息数据处理的规程和细节更具有现实迫切性和重要性。&终结大数据产业的“裸奔”和“野蛮生长”,有赖于从市场驱动力上根本遏制窃取和违法利用个人信息的行为。这就要在市场监管体系中,严厉打击各种灰色产业链,严防以大数据创新为名开展不法交易。5网络平台企业责无旁贷第五,积极建设有效保护用户信息的网络平台生态。网络用户的信息在主要网络平台上被收集、处理、利用和传播,一方面,作为网络平台的建设者、运营者和一线管理者,保护网络用户的个人信息和隐私安全,网络平台企业责无旁贷;另一方面,作为有序、高质量数据信息生产、消费健康网络生态的直接受益者,保护用户信息是自身长远发展的必然要求,网络平台企业为此更应作出不懈努力。&首先,网络平台应当结合自身特点,制定满足合规要求且能为用户理解的隐私政策。隐私政策文本可以考虑有两个版本:一个是专业版或正式版,作为法律文件明确权利义务;另一个是大众版或解读版,以通俗易懂的文字图片或附有示例、说明的视听作品,向一般用户讲清楚、说明白网络平台及平台上的不同应用所可能涉及的信息收集、处理、利用和传播情况。&其次,网络平台企业内部要建立统一高效的信息合规风控体系。网络平台企业应当设立由公司最高决策层成员担任或兼任的首席隐私官(首席数据官)岗位,并建立由首席隐私官统一领导的信息合规机制:日常的产品和应用应当定期进行信息合规检查,新产品、新应用通过信息合规评估后才能上线;员工应该根据岗位进行定期的信息合规培训考核;根据信息安全等级,明确访问权限,监控访问行为,建立应急预案、组织应急演练;明确有力的问责机制等。&再次,网络平台企业要管理好平台上的第三方应用。既要建立第三方应用取得用户数据的严格规则,也要完备控制、限制其获取用户数据的技术措施。&最后,还有一点非常重要:充分保障用户的知情权和控制权,让用户清晰、便捷地知晓数据为何收集、被谁收集、如何收集及其可能的风险,为用户提供访问、更正、删除在其网络平台上的个人信息的友好选项。6专业力量填补“鸿沟”第六,充分发挥第三方专业力量和公共舆论的监督功能。普通公众与信息收集处理单位之间的知识“鸿沟”特别是数字化“鸿沟”,需要中立、专业的机构和队伍来填补。应当鼓励科研机构和社会组织积极开展用户教育和第三方评测监督,增强用户对个人信息风险的判断力、危险的免疫力、伤害的抵抗力,及时发现、曝光侵犯个人信息的机构和行为。&2017年,中央网信办等四部委组织专家对微信、新浪微博、淘宝、京东商城、支付宝、高德地图、百度地图、滴滴、航旅纵横、携程网等十款网络产品和服务的隐私条款展开评审,在短短一两个月里掀起了“隐私政策”更新调整的热潮。有关产品的隐私政策在专业力量和社会公共舆论监督的触动下,得到了相当程度地改进和完善,短时间、低成本地实现了一般行政执法想实现而没有实现的治理目标。&技术不断进步,应用不断创新,风险不断变化,个人信息保护也永远在路上。针对个人信息保护的制度设计也要随着实践的变化适时调整、不断优化,始终确保个人信息保护的针对性、及时性和有效性。
美国时间日至11日,Facebook公司CEO马克·扎克伯格(Mark&Zuckerberg)在美国华盛顿国会山出席听证会,就“剑桥分析丑闻”以及俄罗斯利用Facebook干涉2016年美国总统大选一事作证,并接受国会参众两院议员们的质询。两场听证会共计举行了10小时,面对近100位议员们的轮番拷问,扎克伯格承认Facebook犯下错误,多次道歉并承诺改革。参议院的议员们显然对扎克伯克更为温和。当日听证会结束后,Facebook股票上涨4.5%。而第二日众议员问出了更细致且尖锐的问题,并多次打断扎克伯格的发言,批评他的回答未能让人满意。&腾云梳理了扎克伯格为美国国会听证会准备的证词概要,以及他在两场听证会上被国会议员质询的若干主要问题。扎克伯格证词中所透露的重要信息包括不排除推出让用户免看广告的付费版Facebook,以及不反对政府通过法律进行监管,但强调对互联网和技术公司需要有正确的监管等。“我创建了Facebook,我对Facebook当前发生的问题负责”在隐私、安全和民主等方面,我们面临着许多重要的问题。我想先阐述一下我们是如何到达当前这一步的。&Facebook是一个充满理想主义和乐观主义的公司。随着Facebook的成长与壮大,各地用户也获得了一个强大的新工具来与他们所爱的人保持连接,相互联络,通过这种新工具传达他们的声音,并建立共同的社区和业务。Facebook平台上有“#me&too”运动、“为我们的生命游行(March&for&Our&Lives)”活动、飓风“哈维”通过平台实现2000多万美元的募资,以及为7000多万小企业提供平台发展和就业岗位。&但无论如何,目前有一点非常明确,那就是我们在防止这些工具被滥用和产生伤害等方面仍做得不够。有人利用Facebook平台散布虚假消息,国外一些机构利用我们的平台干预选举事务,此外,还有人在Facebook平台上发布仇视言论,另外还涉及到开发者和数据隐私的问题。我们没有全面地评估我们的责任,这是一个严重的错误。这也是我的错误,我非常抱歉。我创建了Facebook,经营这个平台,我对Facebook当前发生的问题负责。&仅仅将用户连接起来、表达心声、控制信息内容这还远远不够,我们还必须确保这些连接是积极的,确保用户不能利用这个工具伤害他人或传播错误信息,确保为此平台提供应用的开发者也能够保护这一平台。总体而言,我们的责任不仅仅是创建工具,而且还要确保这些工具能够用在好的地方。“剑桥分析公司”事件整改计划●&将提供给应用的数据减少到用户的姓名、个人资料照片和电子邮件地址。●&要求开发人员不仅要获得批准,还要签署一份对使用用户私人数据做了严格要求的合同。●&限制更多的API,任何可能分享他人信息的东西都会受到更大的限制。●&如果用户在三个月内未使用该应用程序,将移除开发者对数据的访问权限。●&调查其他应用程序,防止在用户不知情的情况下访问Facebook用户数据的行为。●&构建更好的管控措施,让用户更加容易地知道他们已经允许哪些应用使用他们的数据,并方便用户撤销这些应用的数据使用权限。&“俄罗斯大选干扰”事件整改计划我们对俄罗斯干预大选之事反应不够迅速,而且也未能及时地采取回应措施,如今,我们正在努力做得更好。我们将继续与政府合作,以弄清俄罗斯干预大选的整个细节。为努力确保这样的事情不再发生,我们目前采取的措施包括以下几点:&●&大力增加我们在安全业务方面的投资。如今,我们拥有大约1.5万名员工在从事安全和内容审查相关的工作。预计到今年底之前,这个数字将增加到两万以上。&●&加强我们的广告政策。每一个想投放政治或议题广告的广告商都需要进行身份和位置的审核,未能通过审核的广告主将被禁止投放。我们还会给他们贴上标签,而广告主则需要向用户显示谁为他们付款。在提升政治或事务性广告透明度的方案方面,我们乐意与国会保持合作,同时也开始采取行动,包括:建立了更先进的人工智能工具,以更广泛地清除虚假账户。&●&共享信息。我们一直在与其它技术公司合作,以此共享有关威胁的信息,并与美国及他国政府在选举事务方面展开合作。“这是所有美国人面临的挑战”我一直以我们的社交目标为重点和优先事物,连接用户、创建社区并带动世界更加紧密的融合。广告主和开发者不能超越这个优先事务,只要是我在运营Facebook。&我在大学期间开创了Facebook,一路走来,我们已经经历了漫长的一段旅程。如今,我们为全球20多亿用户提供服务,每天,用户都在使用我们的服务来与那些对他们最有影响的人士进行连接和交流。&我发现,我们今天谈论的这些问题不仅仅是Facebook和我们社区面临的问题——这也是我们所有美国人面临的挑战。现场,就一些关键问题,议员们也与扎克伯格进行了正面交锋。“是否在考虑允许用户& & & 付费购买非广告服务?”来自佛罗里达州民主党参议员Nelson对扎克伯格提了一个关于个人隐私泄露的问题。Nelson提到,自己因为在Facebook上提到了自己喜欢吃的巧克力口味,结果第二天就在Facebook上看到了各种巧克力的广告。他询问Facebook是否正在考虑采用一种商业模式,允许用户付费购买免广告服务。扎卡伯格强调Facebook给用户提供的都是跟用户生活相关的广告,不会有与用户不相关的广告出现。他说,现在Facebook“用户不能选择付费而不看广告”。付费免广告的订阅模式,值得Facebook考虑。但他表示,一定会有免费版的Facebook存在。2& & “那你这一次的道歉,& & & 与以往有何不同?”来自康州民主党参议员Blumenthal直接让助手用指示板将扎克伯格之前的3次道歉展现给全场观众——2006年Facebook的新闻信息流“News Feed”功能被认为很可能成为跟踪狂的工具;2007年Facebook一款名为Beacon的工具会向用户提供他们朋友们的购物信息;2011年,Facebook与联邦贸易委员会的隐私侵犯问题。参议员Nelson也质问:“那你这一次的道歉,与以往有何不同?”扎克伯格表示Facebook之前只专注于为人们提供交流的各种工具,而没有意识到有人会利用这些工具作恶。这是我们错了,现在我们要改进,我们要更关注并治理Facebook上的虚假信息、仇恨言论,同时不让恶势力利用用户的信息而左右他们的意见。3& & “谁是你最大的竞争对手?”南卡罗来纳州的共和党参议员Lindsey Graham要求扎克伯格说出他最大的竞争对手。&扎克伯格表示,“美国人平均使用八种不同的应用程序与朋友沟通并保持联系。”&当Graham追问“你不认为你有垄断?”时,扎克伯格长时间停顿后说,&“这对我来说肯定不会这样!”4& &“是否支持政府监管法案?”民主党参议员Edward J. Markey计划提交一项名为“同意法案”(CONSENT Act)的新法案,该法案要求社交巨头如Facebook和其他主要网络平台在分享或出售个人数据之前,获得用户明确同意。扎克伯格被问及你是否会同意像“同意法案”这样的法案?扎克伯格并没有直接回答同意或者不同意,他只表示“原则上是支持的,但是细节很重要。”5& “Facebook是否是一个中立的平台?”相较于民主党人更关心用户数据、隐私的内容,共和党人更多是针对Facebook对政治、选举过程中的影响力展开,甚至直接关注Facebook的政治倾向。比如来自德州的共和党议员在听证现场问小扎,Facebook和其他科技公司是不是一个“中立的”平台。扎克伯格没有直接回答“是”或“不是”。但他承认,硅谷是一个“极度左倾的地方”,但他试图确保Facebook在招收员工时不问政治倾向。6“人脸识别技术的应用需要用户同意”Facebook的应用大量应用到人脸识别技术。比如,在Facebook发布的照片,可以给相关人打上标签(Tagged)。欧洲监管机构认为Facebook在推出这项服务的时候,没有经过用户的明确同意,相当于违反了他们的隐私,因此将要求其改正。欧洲下个月就将正式颁布一项新的有关数据保护的立法。&当国会议员问到扎克伯格是否应在全球范围内推广在欧洲的严厉监管,他回答,他担心在这方面施加限制,可能会阻碍美国技术公司在人脸识别技术上的进一步创新,结果会造成中国在这一领域的技术开发方面领先世界。但他补充说,人脸识别等技术的应用需要征得用户的同意。7& &“如何定义Facebook是家怎样的公司?”议员们认为这个问题很重要,因为它涉及到谁应该来监管Facebook。如果Facebook是一家出版商,那么就应该由相关的机构来监管。&扎克伯格的回答是,“我认为我们是一家技术公司,我们的主要工作是让工程师写代码,为其他人提供服务。”
方可成美国宾夕法尼亚大学传播学院博士候选人,前南方周末记者。不知道大家是否感受到,在刚刚过去的愚人节里,好像身边已经没有那么多人愿意去“玩”了?愚人节前夕,美国新闻行业网站Poynter上就发表了一篇文章,标题叫:在这个假新闻的年代,愚人节还有什么好玩的?&大约从去年开始,“假新闻”这个概念就开始成为全球关注的热点,更是媒体界、新闻传播学界最热门的话题。但是“假新闻”到底指的是什么呢?为什么它能比真新闻拥有更快的传播速度和更广泛的影响力?我们需要把这个问题的细节看清楚。1“假新闻”是一个不精确的概念有人曾问我,学界对“假新闻”有一个确切的定义吗?答案是没有。这个词经常和misinformation一起用,但是具体是什么意思,各有说法。&在欧美的语境下,“假新闻”这个词其实已经被武器化了,政客们经常会用“假新闻”来炮轰自己政见不同的对手。&而在中国,我们早期关注的“假新闻”,可能更多指的是主流媒体在新闻报道中出现的事实差错。但是在今天的互联网环境下,大家又不会过分关心这些机构媒体发了什么出现差错的新闻,因为社交媒体上的假新闻,绝大部分是社交媒体帐号制造的,并不来自传统媒体。&在《科学》杂志最近刊登的综述文章《The science of fake news》,对“假新闻”做了如下定义:&We define “fake news” to be fabricated information that mimics news media content in form but not in organizational process or intent. Fake news outlets, in turn, lack the news media’s editorial norms and processes for ensuring the accuracy and credibility of information. Fake news overlaps with other information disorders, such as misinformation (false or misleading information) and disinformation (false information that is purposely spread to deceive people).&按照这篇政策文章的看法,辨别新闻真假的主要方式就是看信息是谁发布的——如果是正规机构媒体发布的,则一般认为可信;如果不是,则要打个问号。这种判断方法,比具体分析每一篇文章的内容,要高效得多,准确率也很高。&区别正规机构媒体和假新闻生产者的主要依据就是:前者有着组织化的流程和编辑守则,来确保内容的准确性和公信力;后者并不具有这样的守则,也并不愿意受这种规范的约束。&这种流程和守则,是过去几十上百年间逐渐形成的,其中包括了大量可操作的原则。例如,重要的信息必须有两个以上独立信源“交叉印证”。媒体界常说的“新闻专业主义”指的就是这些规范和原则。2假新闻跑得比真新闻快在社交媒体时代,既然真新闻的生产者和假新闻的生产者都在源源不断地产出内容,那么,这些内容在同样的平台上竞争,最终获胜的会是谁呢?&《科学》杂志3月发表的研究《The Spread of True and False News Online》回答了这个问题。&研究者依据6家事实核查网站(fact-checking,专门核查消息真假的网站)提供的数据,从2006年到2017年间的Twitter数据中挑选出了大约12.6万则消息,这些消息有真有假,共有300万人参与传播,传播次数达到450万次,因此可以从中比较真新闻和假新闻的传播力。&这是文中的一张主要图表。简单来说,他们在四个维度上进行了对比:&首先是深度,也即被转发的“层级”。比如B转发了A,C又转发了B,那么深度就是3。研究发现,假新闻的传播深度超过真新闻,最深可以超过19层,而真新闻的传播则基本不会超过10层。&其次是人数,也即参与转发的帐号数量。真新闻很少能被超过1000人转发,但排名前1%的假新闻却可以传播给一千到十万人。从时间上来看,要传播到1500个人,真新闻需要花的时间是假新闻的6倍之多。&第三是宽度,即在任意一个层级上参与转发的最多人数。同样,传播力最强的真新闻,传播宽度只能刚刚超过1000人,而假新闻的宽度则能达到好几万人。&第四是结构性的病毒式传播力(structural virality),这是研究者计算出来的一个数值,在这方面同样是假新闻更强。&而如果将假新闻进行分类,研究者发现:传播最快的类型包括政治、都市传说和科学。而其中政治类的假新闻又是当仁不让的传播之王,比其他类型的假新闻都传得更快、更广。&当然,在这里必须指出,以上这些研究都是基于Twitter的数据得出,可能在不同的语境下会有所不同。3为什么假新闻跑这么快?在揭示“假新闻传播力强”这个事实之外,研究者也尝试分析背后的原因。&会不会是因为传播假新闻的推特帐号粉丝更多、更有影响力?他们分析发现:恰恰相反,传播假新闻的帐号粉丝更少、更不活跃、更少被认证。也就是说,虽然这些帐号本身影响力不强,但假新闻却可以通过它们获得极强的传播力。&会不会是因为机器人帮助了假新闻的传播?的确,推特上有很多机器人帐号,自动转发假新闻内容。然而,当研究者通过算法识别剔除掉机器人帐号重新进行分析后,结果仍然保持不变。也就是说,不管有没有机器人,假新闻都跑得更快。&既然不能从传播假新闻的帐号和传播的网络结构上找原因,还是应该分析假新闻本身。研究者发现,被人们转发的假新闻有一个明显的特质:新鲜。&他们用自然语言处理的方法,测量了一个推特帐号在发布假新闻之前60天的推文和假新闻之间的“信息距离”。通俗地解释信息距离,就是这些推文之间越“八竿子打不着”,信息距离就越大。数据显示:比起真新闻,假新闻确实是和转发者之前读到的信息距离更远,也就是更为新鲜的。&除此之外,他们还研究了假新闻和真新闻引发的情绪反应。结果发现,人们对假新闻的常见情绪反应是:惊奇、恶心、害怕,而对真新闻的常见反应是:期望、悲伤、快乐和信任。&除了《科学》杂志的这篇文章,我对假新闻的泛滥原因也做了几点分析。┃&假新闻泛滥最根本的原因:人心相信很多人都不愿意承认这样的事实:我们喜欢看假新闻或者某些假新闻,我们也喜欢看某些标题党,喜欢看某些垃圾信息。所以,它们之所以在那里,根本上说还是因为我们喜欢看。&这种心理上的成因,可以从一些进化的理论来解释——我们“智人”这种物种在远古时代之所以能够生存下来,很大程度上是因为我们的脑子有一些倾向,有一些偏见,比如,我们对周围的风吹草动、细小的威胁很敏感,因为那时我们需要随时躲避大自然的危险。我们的脑子处理信息的能力是有限的,所以就需要最有效、最快速地选出对自己有利的信息。&虽然现在我们的时代进化得非常快,可是我们的脑子进化得特别慢,所以导致了我们还是用远古时代的那种充满了偏见的脑子来应付现在的问题,这个时候可能就会出现一些脱钩的情况。&这里有一张图,总结了人类的“认知偏见”:▲图片来源:https://medium.com/thinking-is-hard/4-conundrums-of-intelligence-2ab78d90740f这些偏见怎么形成的呢?有4个大方面的原因,一个方面原因就是右上角说的:我们周围的信息太多了,所以不得不有所选择。&比如,如果有一些信息,我们已经知道了或者说脑子已经有印象了,那我们就可以优先把这些信息选出来。&这会导致什么样的情况?就是选择性地接受信息,然后用这些信息来加深自己固有的一个偏见,这样可能就会产生负面的后果。&再比如,因为人类对于变化的东西特别敏感,所以某些阴谋论或者标题党,就可以利用人类的这种特质对信息进行一些扭曲和操纵。&我们处于一个信息爆炸的时代。之前大家可能还是抱着一个非常乐观的态度,觉得在信息社会,人类可以在信息海洋里面如鱼得水。但后来发现,我们不是鱼,我们没它们会游泳,没它们会潜水,信息的海洋快把我们淹死了。&所以,信息爆炸其实往往意味着垃圾爆炸。当大量的信息扑面而来时,我们的脑子里其实是没有太好的机制去筛选出有用信息的,只能靠那些远古时代而来的偏见进行筛选,这就会导致你很容易就被垃圾信息给淹没了。&为了不让自己被这些垃圾信息淹没,你就需要主动去抗击这些既有的偏见。为了抗击脑中的这种倾向,你需要不断地付出努力,可能你脑子里消耗的某种糖会特别多,这是个特别累人的事情。&但是人又是很懒惰的一种动物,怕累。所以,人类脑中的固有偏见加上新的信息环境,就容易导致糟糕的后果。┃&假新闻的重要推力:技术的快速发展刚才说了,人类的大脑进化一直很慢,那为什么我们之前没有特别多地谈假新闻、垃圾信息、信息雾霾的事情,而是在最近才开始频繁提及?这显然跟信息技术的发展密切相关,现今发达的社交媒体技术成为了假新闻泛滥背后的重要推力。&之前有一个词非常流行,叫做赋权(empowerment)。很多学者观察到,新的数字技术可以让人变得更加强大。但是,技术给你赋权,让你可以去做一些积极的事情的同时,其实也给你赋权可以去做一些消极的事情。&例如,在技术赋权下,在社交媒体上,我们每一个人都可以发声了,所有人都有自己的麦克风了,但你发的声音可以是好的声音,是给公共讨论、民主价值带来贡献的声音,也可以是不好的声音,是喷子、骚扰、霸凌的声音,生产的是垃圾性、误导性、攻击性的信息。&说到技术,自然要谈算法。很多人批评算法使得信息环境变得单一、计划,我们谈论非常多的“信息茧房”、意见极化等问题,的确跟算法是息息相关的。&但是也不能说算法就是非常坏的事情,因为算法怎么写,还是完全取决于人的思路。&比如你是自由派的,我的算法可以给你推自由派的东西,但也可以写另一个算法,变成:我发现你是自由派的,那我就故意给你推一些保守派的东西,让你接触的观点更加多元。所以算法表现如何,完全取决于你想用它实现什么样的目的。┃&假新闻泛滥的重要背景:全球性的新闻业危机简单说就是,真新闻少了,假新闻的比例自然更大了。&大家可以明显感觉到,中国最近几年优秀的调查报道已经少了很多。这跟传统做调查报告很强的媒体——比如说我曾经服务的南方周末——在经济上的衰落是很有关系的。&因为新闻业危机了,所以优质内容供应也变少了,相对比例自然就下降了。所以,如果我们想改善信息环境的话,可能需要去想一下,如何支持这些生产优质内容、生产新鲜精神食粮的人。&新闻业危机的原因根本上来说是既有商业模式的崩溃。原来,媒体里面的商业模式是二次售卖和捆绑销售。&二次售卖说的是,先把内容卖给读者,再把读者卖给广告商。但是这样一种广告模式在互联网时代已经崩溃了。&大家可能会想,报纸内容可以移到网上去,那广告也可以啊。但实际上,一个残酷的事实是,网络广告绝大部分都已经被互联网巨头拿走了,只有零头到了传统媒体手里。&在美国,巨头是Google和Facebook;在中国,则是腾讯、百度、今日头条等大平台。所以,媒体想复制原来的二次售卖模式,在互联网环境下是不可能了。&捆绑销售指的是什么?比如一份报纸里面有好多版面,政治、经济、文化、体育......我们买一份报纸,可能是出于非常不一样的需求,有的人为了看一下体育赛事的情况,有的人想看一个明星的新闻,但他们都必须买下整份报纸。在这样的情况下,那些关注的人不多的,比如说严肃的、思想性的内容,也一道被捆绑出售了。&这时候,在同一份报纸里,就出现了一种可以被称为做“补贴”的情况,用那些娱乐性的、更吸引眼球的内容去补贴那些不那么受关注的、但却有非常重要社会意义的内容。&但互联网时代打破了这种局面。互联网时代的特征就是垂直的市场、细分的领域,我想知道什么消息,单独关注这个领域的公号就够了,不用连带为其他内容买单。在这样的情况下,那些严肃的内容就得不到补贴了。&全世界的人都在想到底怎么挽救这个情况。大家想了很多办法,比如说有人觉得可能需要由土豪来包养。像亚马逊的老板贝索斯,他买了《华盛顿邮报》,但从来不干涉内容上的操作,这可能也是一种模式。但是这种情况在美国本身就受到争议,在中国争议可能更大,例如马云买下《南华早报》之后引发的怀疑。&也有人倡导说,要由基金会来支持建设非盈利的媒体,这些媒体不是盈利性的公司,不需要拼命地赚钱,在这种情况下它可以保证高质量内容的生产。&非营利媒体有非常成功的例子,比如我经常提到一个叫做ProPublica的网站。ProPublica是美国非常重要的非盈利的调查新闻和数据新闻的网站,它做了很多跟公共利益相关的重要报道,多次获得普利策奖。&其中一些重磅报道可能要一个记者团队投入半年的时间,这种投入在盈利媒体是很少存在的,因为成本太高了。&在商业逻辑之下运行一个媒体,一定会首要考量成本和收益的问题,想办法压低成本、提高收益。而在非盈利媒体之中,更重视社会效益,并不追求金钱上的回报。&但是也有很多人指出,这种模式是没办法大规模推广的,它可能只能支持一个媒体,但却不能支持10个、100个、1000个。&所以还是得有其他的方法,比如说众筹新闻。&中国也曾有个体记者去为自己的新闻调查项目众筹,想得到大家的支持。维基百科的创始人去年也开展了一个众筹支持的项目,叫Wikitribute。他想用维基百科的种模式来做新闻,用户可以去给新闻提意见、做修改,同时也会有10个左右专业的编辑记者把关内容。4遏制假新闻,我们能做什么?从根本上来说,假新闻泛滥、信息环境糟糕是所有人共同作用的结果。也正因为如此,如果我们对目前的信息环境感到失望,希望有所改变,那么每个人都可以做一些事情。&如果你是记者,你应该更努力地生产更好的报道,更自觉地走出视野的局限,倾听被遗忘的声音,讲述被忽略的故事。&如果你是新媒体公司的工程师,你应该意识到:从来就没有什么绝对客观中立的算法,所有的算法中都有主观的判断和选择。在算法的力量越来越重要的今天,你可以通过自己写下的代码,帮助优质内容更好地浮出水面,让虚假内容得不到展示,改变信息环境的面貌。&如果你是信息资讯类新媒体的老板,你可以探索一条兼顾商业利益和社会责任的道路,站着把钱挣了。&如果你是新媒体的投资人,通过全面考察和选择投资对象、抛弃那些生产信息毒奶粉的项目,你手中的资本不仅可以创造更大的商业价值,更可以创造巨大的社会价值。就像硅谷创业者常说的,make the world a better place(让世界变得更美好)。&如果你是新闻传播专业的老师,你可以多向学生——不仅仅是新闻传播专业的学生,也包括全校所有专业的学生——讲授新媒体环境下如何提高自身的媒介素养、信息素养。&如果你是信息消费者(我们每个人都是),你可以对自己的信息食谱作出更精明的选择,像关爱自己的身体一样关爱自己的头脑,选择更健康的精神食粮。你应该阅读和转发真正的新闻,支持生产优质内容的机构和个人;应该对网络信息的真实性持有更审慎、更具批判性的态度,对信源的质量形成基本的判断,学习基本的查证技术。&套用一句已经被用滥的话:“你所站立的地方就是你的中国”。你所选择阅读和传播的信息,造就的就是你的信息环境。你怎样选择,信息环境便会怎样变化。你做明智的信息消费者,支持好内容,信息环境就会越来越好。你做吃瓜群众,沉湎于标题党和假新闻,信息环境只会越来越糟。&假新闻本身就跑得快,再加上技术和资本的助推,真假新闻的差距就更悬殊了。所以,在这个年代,要让我们所处的信息环境变得更优质,每一个人都需要行动起来,因为事情是不会自己变好的。
AI也会画摩登原始人了机器正在迅速缩小人类和人工智能之间的创造性差距。去年,我们对Nvidia的AI能够产生逼真的假人图像的能力感到惊讶,但昨天一组研究人员推出了一款能够从文字描述中制作“The Flintstones”原创视频的能力。“ 摩登原始人 ”是关于一个流行的美国黄金时段的动画片,讲述的是摩登石器时代的家庭。在艾伦人工智能研究所,伊利诺伊大学厄巴纳 - 香槟分校和华盛顿大学工作的研究人员开发了AI组合,检索和融合网络(Craft)。它在一个数据库上进行了培训,这些数据库包含了超过25,000多张经过精心注释的影视。Craft使用视频中的注释来确定原始图像如何与用于描述它们的文字相对应。最终,它建立了一组参数,使其能够“理解”卡通中的个性角色和对象与他们的普通语言对象相匹配的原因。一旦理解了这种关系,它就能够基于新颖的文本输入生成视频剪辑,这看起来很像它训练的卡通。训练集仅包含长度为75帧或约三秒长的剪辑。虽然人工智能并不总能输出可辨识的东西,但它经常以惊人的准确度模仿原始动画片的风格。谁可能会对智能设备上瘾?华盛顿邮报的一份报告称:当特朗普附属公司剑桥分析公司获得数千万Facebook用户的数据时,它使用“大五”或“ 五因素模型 ”性格测试来定位广告,通过他们在2016年选举中预测表决。该测试根据五个特征 - 开放性,尽责性,外向性,愉悦性和神经质 - 对人进行评分,并在选举中用于预测选民对广告的反应方式。但公司可以预测更多,包括甚至可能使用Facebook或任何其他社交媒体进行调查。你在测试中得分的方式可以告诉你你有多么可能沉迷于屏幕。研究表明,神经质,高度责任心和友善程度低的人更容易沉迷于社交媒体、视频游戏、即时消息或其他在线刺激。研究还发现,外向者比内向者更容易成为手机使用的上瘾者。一些相关性是有意义的。不太友善的人可能更倾向于沉浸在虚拟世界中,因为它不需要现实生活中那种友好的互动。神经质的人已被证明花更多的时间上网,因为它证实了他们的愿望属于或成为一个群体的一部分。有良知的人不那么冲动,因此更能控制和组织他们的时间。
前言Spark作为大数据计算引擎,凭借其快速、稳定、简易等特点,快速的占领了大数据计算的领域。本文主要为作者在搭建使用计算平台的过程中,对于Spark的理解,希望能给读者一些学习的思路。文章内容为介绍Spark在DataMagic平台扮演的角色、如何快速掌握Spark以及DataMagic平台是如何使用好Spark的。Spark在平台中的角色整套架构的主要功能为日志接入、查询(实时和离线)、计算。离线计算平台主要负责计算这一部分,系统的存储用的是COS(公司内部存储),而非HDFS。下面将主要介绍Spark on Yarn这一架构,抽取出来即图2-2所示,可以看到Spark on yarn的运行流程。如何快速掌握Spark对于理解Spark,我觉得掌握下面4个步骤就可以了。1.理解Spark术语对于入门,学习Spark可以通过其架构图,快速了解其关键术语,掌握了关键术语,对Spark基本上就有认识了,分别是结构术语Shuffle、Patitions、MapReduce、Driver、Application Master、Container、Resource Manager、Node Manager等。API编程术语关键RDD、DataFrame,结构术语用于了解其运行原理,API术语用于使用过程中编写代码,掌握了这些术语以及背后的知识,你就也知道Spark的运行原理和如何编程了。2.掌握关键配置Spark在运行的时候,很多运行信息是通过配置文件读取的,一般在spark-defaults.conf,要把Spark使用好,需要掌握一些关键配置,例如跟运行内存相关的,spark.yarn.executor.memoryOverhead、spark.executor.memory,跟超时相关的spark.network.timeout等等,Spark很多信息都可以通过配置进行更改,因此对于配置需要有一定的掌握。但是使用配置时,也要根据不同的场景,这个举个例子,例如spark.speculation配置,这个配置主要目的是推测执行,当worker1执行慢的情况下,Spark会启动一个worker2,跟worker1执行相同的任务,谁先执行完就用谁的结果,从而加快计算速度,这个特性在一般计算任务来说是非常好的,但是如果是执行一个出库到Mysql的任务时,同时有两个一样的worker,则会导致Mysql的数据重复。因此我们在使用配置时,一定要理解清楚,直接google spark conf就会列出很多配置了。3.使用好Spark的并行我们之所以使用Spark进行计算,原因就是因为它计算快,但是它快的原因很大在于它的并行度,掌握Spark是如何提供并行服务的,从而是我们更好的提高并行度。对于提高并行度,对于RDD,需要从几个方面入手,1、配置num-executor。2、配置executor-cores。3、配置spark.default.parallelism。三者之间的关系一般为spark.default.parallelism=num-executors*executor-cores的2~3倍较为合适。对于Spark-sql,则设置spark.sql.shuffle.partitions、num-executor和executor-cores。4.学会如何修改Spark代码新手而言,特别是需要对Spark进行优化或者修改时,感到很迷茫,其实我们可以首先聚焦于局部,而Spark确实也是模块化的,不需要觉得Spark复杂并且难以理解,我将从修改Spark代码的某一角度来进行分析。首先,Spark的目录结构如图3-1所示,可以通过文件夹,快速知道sql、graphx等代码所在位置,而Spark的运行环境主要由jar包支撑,如图3-2所示,这里截取部分jar包,实际上远比这多,所有的jar包都可以通过Spark的源代码进行编译,当需要修改某个功能时,仅需要找到相应jar包的代码,修改之后,编译该jar包,然后进行替换就行了。而对于编译源代码这块,其实也非常简单,安装好maven、scala等相关依赖,下载源代码进行编译即可,掌握修改源码技巧对于使用好开源项目十分重要。DataMagic平台中的SparkSpark在DataMagic中使用,也是在边使用边探索的过程,在这过程中,列举了其比较重要的特点。1.快速部署在计算中,计算任务的数量以及数据的量级每天都会发生变化,因此对于Spark平台,需要有快速部署的特性,在实体机上,有一键部署脚本,只要运行一个脚本,则可以马上上线一个拥有128G内存、48cores的实体机,但是实体机通常需要申请报备才能获得,因此还会有docker来支持计算资源。2.巧用配置优化计算Spark大多数属性都是通过配置来实现的,因此可以通过配置动态修改Spark的运行行为,这里举个例子,例如通过配置自动调整exector的数量。在nodeManager的yarn-site.xml添加配置&&property&& & &name&yarn.nodemanager.aux-services&/name&& & &value&mapreduce_shuffle,spark_shuffle&/value&& &&/property&& &&property&& & & &name&yarn.nodemanager.aux-services.spark_shuffle.class&/name&& & & &value&org.apache.spark.network.yarn.YarnShuffleService&/value&& &&/property&将spark-2.2.0-yarn-shuffle.jar文件拷贝到hadoop-yarn/lib目录下(即yarn的库目录)在Spark的spark-default.xml添加配置spark.dynamicAllocation.minExecutors 1 #最小Executor数spark.dynamicAllocation.maxExecutors 100 #最大Executor数通过这种配置,可以达到自动调整exector的目的。3.合理分配资源作为一个平台,其计算任务肯定不是固定的,有的数据量多,有的数据量少,因此需要合理分配资源,例如有些千万、亿级别的数据,分配20核计算资源就足够了。但是有些数据量级达到百亿的,就需要分配更多的计算资源了。参考第三章节的第3点。4.贴合业务需求计算的目的其实就是为了服务业务,业务的需求也理应是平台的追求,当业务产生合理需求时,平台方也应该尽量去满足。如为了支持业务高并发、高实时性查询的需求下,Spark在数据出库方式上,支持了Cmongo的出库方式。sc = SparkContext(conf=conf)sqlContext = SQLContext(sc)database = d = dict((l.split('=') for l in dbparameter.split()))parquetFile = sqlContext.read.parquet(file_name)parquetFile.registerTempTable(tempTable)result = sqlContext.sql(sparksql)url = &mongodb://&+database['user']+&:&+database['password']+&@&+database['host']+&:&+database['port']& & result.write.format(&com.mongodb.spark.sql&).mode('overwrite').options(uri=url,database=database['dbname'],collection=pg_table_name).save()Spark作为通用的计算平台,在普通的应用的场景下,一般而言是不需要额外修改的,但是DataMagic平台上,我们需要“在前行中改变”。这里举个简单的场景,在日志分析中,日志的量级达到千亿/日的级别,当底层日志的某些字段出现utf-8编码都解析不了的时候,在Spark任务中进行计算会发生异常,然后失败,然而如果在数据落地之前对乱码数据进行过滤,则有可能会影响数据采集的效率,因此最终决定在Spark计算过程中解决中这个问题,因此在Spark计算时,对数据进行转换的代码处加上异常判断来解决该问题。5.适用场景6.Job问题定位Spark在计算任务失败时候,需要去定位失败原因,当Job失败是,可以通过yarn logs -applicationId application 来合并任务log,打开log,定位到Traceback,一般可以找到失败原因。一般而言,失败可以分成几类。代码问题,写的Sql有语法问题,或者Spark代码有问题。Spark问题,旧Spark版本处理NULL值等。任务长时间Running状态,则可能是数据倾斜问题。任务内存越界问题。7.集群管理Spark集群在日常使用中,也是需要运营维护的,从而运营维护,发现其存在的问题,不断的对集群进行优化,这里从以下几个方面进行介绍,通过运营手段来保障集群的健壮性和稳定性,保证任务顺利执行。定时查看是否有lost node和unhealthy node,可以通过脚本来定时设置告警,若存在,则需要进行定位处理。定时扫描hdfs的运行log是否满了,需要定时删除过期log。定时扫描集群资源是否满足计算任务使用,能够提前部署资源。总结本文主要是通过作者在搭建使用计算平台的过程中,写出对于Spark的理解,并且介绍了Spark在当前的DataMagic是如何使用的,当前平台已经用于架平离线分析,每天计算分析的数据量已经达到千亿~万亿级别。原创声明,本文系作者授权云+社区-专栏发表,如有不当,请联系本站删除
如果说 2018 年是技术大爆炸年,那么 Apache Kafka 绝对是其中闪亮的新星。自Kafka 从首发之日起,已经走过了快八个年头。Kafka 已经从最开始的大规模消息系统,发展成为功能完善的分布式流式处理平台,其高性能、可扩展的特性,使其非常适合大数据、日志等场景下大规模流数据的实时处理。超过三分之一的福布斯 500 强公司都在它们的大规模集群中使用着 Kafka。Apache Kafka 为什么能得到巨头们的青睐?都有哪些成熟的落地场景?怎样结合上下游插件实现完整的数据分析和处理? 云+社区技术沙龙 Kafka meetup 首次于深圳举办,带你纵观 kafka 的过去、现在和未来。揭秘 kafka 高性能的奥秘,介绍Kafka在自动化运维、基于K8S容器的实践方案,并介绍其在AI+人脸识别中的应用。点击阅读原文或者长按识别下图二维码即可参与报名。
近年来,随着移动互联网的普及和智能终端设备的广泛应用,短视频、直播、在线教学等各类形式的音视频形式的应用越来越广泛,然而,音视频技术使用起来虽然便捷,但是在技术开发上却有“重重难关”要过。2015年初,腾讯推出一体化云视频解决方案,正式涉足网络视频市场。腾讯凭借在QQ、腾讯视频等海量业务发展过程中,在音视频领域多年积累的核心技术与优势能力,集成了一体化的云视频解决方案,为包括在线教育、视频社交、视频网站新媒体、广电网络电视等应用领域,提供囊括基础网站及数据,内容生产及分发,用户及内容运营的一揽子服务。本期云+社区技术沙龙将从视频云行业未来趋势讲起,涵盖小程序音视频技术实现以及在相关行业的实际应用,腾讯音视频在会议场景的应用实践,腾讯云H5双向音视频语音质量优化等等,旨在提供与众多音视频开发者交流与动手体验的机会。点击阅读原文或者长按识别下图二维码即可参与报名。欢迎关注腾讯系列公众号
未来人工智能可能会自我产生幻觉科学家们认为,引入类似激素的系统,例如人类大脑的类似系统,可以使人工智能能够像人一样推理和做出决定。最近的研究表明人类的情感在一定程度上是学习的副产品。这意味着,如果机器想要思考或感受,机器就必须要能够读得懂情感。Champalimaud中心的神经科学家Zachary Mainen在大脑和机器的典范计算研讨会上发言时讨论了最近的实验发现血清素对决策制定的影响。根据Mainen和他的团队,血清素可能与“情绪”或情绪状态(如快乐)无关,而是一种旨在更新和改变大脑学习参数的神经调节器。他甚至认为,尽管有一些可能令人不安的副作用,即人们遭受的副作用,但机器学习可能需要这种机制。在接受采访时,他说:抑郁症和幻觉似乎取决于大脑中称为血清素的化学物质。血清素只是一种生物怪癖。但是,如果血清素能够帮助解决智能系统中情感方面的问题,那么机器可能会通过使用它来实现类似大脑的功能,并且如果血清素在人类身上出错,机器中的等价物也可能出错。这项研究还处于初始阶段,需要进一步的测试,但是在小鼠身上进行的实验表明,血清素在大脑记忆和身体机能方面起着重要作用。实质上,研究结果显示血清素和多巴胺也可能是促进智力发展的内在因素。为了确定血清素是如何影响决策的,科学家们做了一个迷宫给老鼠选择,分叉口只有左边或者右边。在一条道路的尽头,有提供水源作为奖励。一旦小鼠熟悉奖励的位置,小组就能够通过移动水的位置来使他们感到惊讶从而引发啮齿动物的5-羟色胺反应。小鼠是否发现水分并不是血清素水平是否升高的主要因素。这对机器学习开发人员是否有用,取决于他们打算如何模仿人脑。一些科学家认为,有机大脑中的化学不平衡是异常的,但是Mainen的研究似乎又违背这一理论。至于未来是否会在人工智能上运用,让我们拭目以待吧。AI如何防止犯罪并改善治安?PCMag在USC Salvatori计算机科学中心的AI实验室会见了Tambe教授,以了解更多信息,以及他作为USC人类智能社会中心联合创始人利用AI解决社会问题的重点。这里是我们谈话的编辑和简要摘录。Tambe博士,告诉我们你是如何对AI作为一个研究领域感兴趣的。&当我在印度长大时,AI属于未来,星球大战和星际迷航中描绘的世界,以及我读过的科幻小说。事实上,60年代原创系列的“&星际迷航”在20世纪80年代开始在印度演出,我发现它很有意思。那是我如何学习这个领域的起源。然后,我最终来到美国,并在卡耐基梅隆大学获得了我的博士学位。谁资助了原始研究?ARMOR是通过美国国土安全部、国防部和美国陆军研究办公室的资助,与南加州大学合作开发的。虽然有这么多的联邦机构,但是资源却相对有限,美国有很多大面积的地区需要被保护,业务面太广了。最初的ARMOR软件背后的技术平台是什么?我们自己构建了算法,这些算法随机化了安全巡视并提供了风险评估分数,但这些算法都不是即插即用的,我们可以在30天内在新组织中启动并运行它们。你在使用机器学习吗?我们现在开始这样做了,因为有越来越多的历史数据。我们假设对手是非常有战略性的,总是想着[如何]给我们造成巨大的伤害。当我们去到那些损失不如人类生命那么重要的领域时,敌人就不那么具有战略意义,说野生动物偷猎,那么我们可以更加激进,我们有更多的偷猎数据。我们可以根据利用已知的弱点开发模型。
日,中共中央办公厅和国务院办公厅印发了《推荐互联网协议第六版(IPv6)规模部署行动计划》,并发出通知,要求各地区各部门结合实际认真贯彻落实。这条新闻传达了一个很重要的信息:这个是推进中国IPv6发展的战略总动员令。本文将会从以下几个方面进一步介绍IPv6,包括有:IPv6的基本概念IPv6在Linux操作系统下的实现IPv6的实验IPv6的过渡技术介绍IPv6在Linux平台下socket编程应该注意的问题实现简易版TGW支持IPv6雏形demo值得说的是,目前我们接触得比较多的主流操作系统内核,已经很好地支持IPv6协议栈,例如:Windows: windows 7、windows 8.x、windows 10,默认开启IPv6Linux: 内核2.6.x、内核3.x、内核4.x 已经支持IPv6(需要手动开启)IOS:IOS9开始已经支持IPv6 Only,2016年苹果已经强制要求app必须支持IPv6本文提到的IPv6节点,没有特殊说明,一般指的是纯IPv6节点(IPv6 Only),也就是只支持IPv6协议栈;IPv4节点,是指纯IPv4的节点,也就是只支持IPv4协议栈;如果节点支持IPv6和IPv4双栈,会指明是双栈节点。IPv6的基本概念众所周知,32位的IPv4地址已经耗竭,IPv6采用128位的地址长度拥有更大的地址空间。首先我们先来认识一下IPv6到底长成什么样子。图1 IPv6数据报文上图是我们最熟悉的ping的IPv6版本ICMPv6。可以看到,IPv6数据报文和IPv4有很大的差别:数据链路层(L2)的type字段标识为 0x86dd,表示承载的上层协议是IPv6IPv4对比:type字段为0x0800IPv6的头部字段,和IPv4差别巨大(可以猜测到,IPv6和IPv4无法兼容)IPv6的报文头部格式如下:图2 IPv6报文头部(该图片来自互联网)IPv6报文头部更精简了,字段更少了,对比起IPv4,有以下几个地方值得注意:IPv6报文头部是定长(固定为40字节),IPv4报文头部是变长的。这个意味着,写代码处理IPv6数据报文的效率会提高很多:)IPv6中Hop Limit字段含义类似IPv4的TTL。IPv6中的Traffic Class字段含义类似IPv4中的TOS(Type Of Service)。IPv6的报文头部取消了校验和字段。取消这个字段也是对IPv4协议的一个改进。当IPv4报文在网路间传输,每经过一个路由器转发就是修改TTL字段,就需要重新计算校验和,而由于数据链路层L2和传输层L4的校验已经足够强壮,因此IPv6取消这个字段会提高路由器的转发效率。值得一提的是,在IPv6协议下,传输层L4协议UDP、TCP是强制需要进行校验和的(IPv4是可选的)。IPv6报文头部中的Next Header字段表示“承载上一层的协议类型”或者“扩展头部类型”。这里的含义与IPv4有很大的差别,需要加以解释:当IPv6数据报文承载的是上层协议ICMPv6、TCP、UDP等的时候,Next Header的值分别为58、6、17,这个时候和IPv4报文头部中的Protocol字段很类似。当不是以上3种协议类型的时候,IPv6报文头部紧接的是扩展头部。扩展头部是IPv6引入的一个新的概念,每个IPv6的数据报文可以承载0个或多个扩展头部,扩展头部通过链表的形式组织起来。当IPv6数据报文承载着扩展头部的时候,Next Header的数值为扩展头部的类型值。为什么要引入扩展头部这个概念,这里也是IPv6对IPv4改进的一个方面,用扩展头部取代了IPv4的可选项信息,精简了IPv6的头部,增强了IPv6的扩展性。有同学会不会有疑问,IPv6的分片数据报文怎么处理?其实就是使用了IPv6扩展头部。我们来抓一个UDP分片报文来看看。图3 IPv6分片报文当发送一个分片IPv6数据报文的时候,IPv6使用的是扩展头部的形式组织各个分片的信息,如图IPv6报文头部Next Header字段值为44表示存在扩展头部,扩展头部是IPv6分片数据信息。对比IPv4,分片信息是记录在IPv4报文头部的分片字段中。IPv6的扩展头部类型有很多种,除了上述的分片头部,还有路由头部、逐跳可选头部等,具体的可以参考RFC2460。本章主要介绍了IPv6的一些很直观的认识,下面逐渐介绍IPv6上的基本知识和概念。
漏洞概要早前,知名 CMS 系统 Drupal 被官方宣称存在严重安全漏洞(漏洞编号:CVE-)。风险等级:官方定级为 “Highly&Critical” 。影响范围:Drupal&7.X、8.X 版本中的多个子系统。漏洞危害Drupal 是全球三大开源内容管理系统 CMS 平台之一,被广泛应用于构造各种不同应用的网站项目。攻击者利用该漏洞对受影响版本的&Drupal&网站发动攻击,无需登录认证即可直接执行任意命令,包括下载重要文件,修改页面,上传&Webshll,篡改页面或进行挖矿等行为。最终可接管站点,而管理员还毫不知情。4月13日,网上公开了针对该漏洞的攻击命令。以下是云鼎实验室对该漏洞的详细技术分析。漏洞分析Drupal 在 3 月 28 日爆出一个远程代码执行漏洞,CVE 编号 CVE-,通过对比官方的补丁,可以得知是请求中存在 # 开头的参数。Drupal Render API 对于 # 有特殊处理,比如如下的数组:比如&#prefix&代表了在 Render 时元素的前缀,#suffix&代表了后缀。通过查阅 Drupal 的代码和文档,可以知道,对于&#pre_render,#post_render、#submit、#validate&等变量,Drupal 通过&call_user_func&的方式进行调用。在 Drupal 中,对于&#pre_render&的处理如下:所以如果我们能将这些变量注入到&$form&数组中,即可造成代码执行的问题。但是由于 Drupal 代码复杂,调用链很长,所以导致了所谓“开局一个 #,剩下全靠猜”的尴尬局面,即使知道了漏洞触发点,但是找不到入口点一样尴尬。直到昨日,CheckPoint 发布了一篇分析博客,我才注意到原来 Drupal 8.5 提供了 Ajax 上传头像的点,并且明显存在一个&$form&数组的操纵。在已经知道触发点的情况下,构造剩下的 PoC 就非常容易了。PoC 构造CheckPoint 提供的截图显示,是在 Drupal 8.5.0 注册处,漏洞文件为:\core\modules\file\src\Element\ManagedFile.php代码如下:代码第五行,取出&$_GET[&element_parents&]&赋值给$form_parents,然后进入NestedArray::getValue&进行处理:NestedArray::getValue&函数的主要功能就是将&$parents&作为 key path,然后逐层取出后返回。举个例子,对于数组:及&$parents:a/b/c,最后得到的结果为&456。查看一下在正常上传中,传入的&$form:似乎&#value&是我们传入的变量,尝试注入数组:发现成功注入:那么通过&NestedArray::getValue&函数,可以传入&element_parents&为&account/mail/#value,最后可以令&$form&为我们注入的数组:在 Render API 处理&#pre_render&时候造成代码执行:Exploit 构造虽然实现了代码执行,但是&#pre_render&调用的参数是一个数组,所以导致我们不能任意的执行代码。不过 Render API 存在很多可以查看的地方,通过翻阅&Renderer::doRender&函数,注意到&#lazy_builder:#lazy_builder&是一个 array,其中元素 0 为函数名,元素 1 是一个数组,是参数列表。接着利用&call_user_func_array&进行调用。不过注意到上方这段代码:意思为传入的&$elements&数组中不能存在除了&$supported_keys&之外的 key,常规传入的数组为:比要求的数组多了&#suffix&和&#prefix。不过 Render API 有 children element 的说法:当数组中的参数不以 # 开头时,会当作 children element 进行子渲染,所以我们传入&mail[a][#lazy_builder]&,在进行子渲染的过程中,就会得到一个干净的数组,最终导致命令执行。其他版本本文分析的是 Drupal 8.5.0,对于 8.4.x,在注册时默认没有上传头像处,但是也可以直接进行攻击,对于 Drupal 7,暂时未找到可控点。参考https://research.checkpoint.com/uncovering-drupalgeddon-2/应对策略为避免攻击者进行批量利用从而造成更大影响,腾讯云安全团队对云上与企业用户做了以下两个应对策略:一、如果您 Drupal 服务为官方源码方式安装,腾讯云安全团队建议升级更新。1)Drupal 7.x版本:更新到Drupal 7.58 版本或者应用补丁:https://cgit.drupalcode.org/drupal/rawdiff/?h=7.x&id=db50e2ffb8a18e2722cba5&2)Drupal 8.5.x版本:更新到Drupal 8.5.1 版本或应用补丁:https://cgit.drupalcode.org/drupal/rawdiff/?h=8.5.x&id=5aca1b509ff9a28f&3)Drupal 8.3.x:建议更新到 Drupal 8.3.9 版本或应用补丁:https://cgit.drupalcode.org/drupal/rawdiff/?h=8.5.x&id=5aca1b509ff9a28f&4)Drupal 8.4.x: 建议更新到 Drupal 8.4.6 版本或应用补丁:https://cgit.drupalcode.org/drupal/rawdiff/?h=8.5.x&id=5aca1b509ff9a28f&二、部署腾讯云网站管家 &WAF 服务腾讯云网站管家 WAF 早在该漏洞公布后,第一时间更新防御规则,已经部署腾讯云网站管家服务的用户将不受此漏洞的威胁影响。腾讯云网站管家 WAF,了解一下主动监测并及时发现高危 Web 漏洞,0day 漏洞;腾讯安全团队7x24小时持续响应 0day 漏洞,紧急漏洞问题;12h 内更新高危漏洞防护补丁,24h 内更新常见通用型漏洞防护补丁;网站管家云端自动升级针对漏洞的攻击防护策略,全球秒级同步下发;封面配图来源:Google
你的成功可以覆盖全球
全球领先的云计算加速平台,让你的用户无论身在何处,均能获得灵活流畅的体验
11年技术服务经验
300家上市企业集团品牌推动力
10000家合作客户信心选择
服务与支持
账号与支持
关注腾讯云}

我要回帖

更多关于 腾讯云 新用户活动 的文章

更多推荐

版权声明:文章内容来源于网络,版权归原作者所有,如有侵权请点击这里与我们联系,我们将及时删除。

点击添加站长微信