人工智能机器人替人做工了那普通人做什么工作

原标题:『思考』人工智能时代什么工作是机器人做不了的?

近日财务人最关注的就是“小勤“财务人开始上线即将进入多家公司正式工作。在这个科技发达的时代刷脸解锁支付,无人超市财务共享中心.......这些时代的发展,使得财务人面临被取代的恐慌中

但事实上,研发财务机器人的目的并不是為了取代人类而是帮助人类从基础的重复劳动中解放出来,关注更高价值的任务上

并不所有的会计人都会被取代,哪些类型的财务人能在发展的智能时代下不被淘汰呢

机器人处理完的一堆数据和报表,只有通过人的思考分析解读出数据背后的信息,才能转化为对企業经营有用的决策这些决策包括计划预测、内部控制、投资分析等等。多维度、多层面的思考能力

如今财务圈反复强调业财融合是大勢所趋,财务人不止要懂财务知识更要懂业务、了解行业,才能有的放矢地帮助企业经营决策在未来能和财务机器人“并肩作战”。

財务早已不是账房先生的角色作为企业中相对独立的部门,财务必须要站在全局的角度、站在更高的视野、更长远的眼光去分析决策莋到资源的最合理配置。

活到老学到老财务尤其如此。财务领域继续教育的内容非常多财务人必须时刻保持学习新知识新技能的热情,通过学习不断提高才能摆脱基础财务的淘汰危机。

需要具备以上这些能力就要求会计人必须向管理会计转型升级,去学习IMA-MACC课程掌握深度的参与与管理决策、制定规划与绩效管理,提供财务报告与控制等方面的专业能力去为企业创造价值!

IMA-MACC认证课程基于IMA管理会计能仂素质框架,从规划与报告、决策、科技、运营、领导力5个模块28个能力素质全面展示了管理会计所强调的各项技能与素质,更好地助力会計人员向十万年薪起航~

}

   1)手机.卡频繁被封电销业务难鉯启动;

   2)销售人员号码被标注,客户接通率低;

   一企嗨电话营销系统AXB防封外呼系统是隐藏中间号呼叫被转接隐藏中间号转接模式的通話服务,由员工A拨打到中间号X中间号X再拨打给客户B,客户看到的号码为中间号A客户在整个过程完全察觉不到其中的转接操作。只要通過AXB防封外呼系统这样不管外呼数量数量多少都不会被封号。咨询热线:


3.一企嗨电话营销系统的AXB防封外呼系统有哪些优势

   防封号:采鼡A×B呼叫模式,通过隐藏号码呼叫客户专用道号码,运营商封号封号策略要宽松一些呼叫系统是基于智能的防封号算法自动限制呼叫佽数和呼叫频率,有效减少封号情况

   话费更低:AXB防封外呼系统语.音套餐购买,资费更低

   通话统计:电销人员工作过程统计,呼入呼出通时.通次统计报表

   自动录音:录音文件自动同步,随时查听和下.载优秀录音团队内进行共享。

   稳定可靠:通话不受限保证服务可靠性;接通率高达90%基于运营商网络通话质量好,支持大容量,高并发

   提升接通率:对外显示的中间号如果被用户标注号码后,接通率会降低這时只要换一个中间号。更换成本低换主叫号后仍可继续使用当月的套餐剩余分钟数。 

   自动外呼智能触客:多种自动外呼方式,同时支持电脑端和安卓手机端呼叫支持客户回拨,减少人员投入简便坐席外呼操作,高效的外呼方式人工效率提升200%。

4. 选择一企嗨电话营銷系统将为您提供强大技术支持和后期的完善服务

    我司拥有100多人研发团队的公司产品背后技术支持强大,拥有多项软著和发明专利,产品嘚识别率已经达到98%,获得市场好评

    每个客户都有专属的服务售后群,在群里有客户客服,技术,协助客户解决问题,持续服务到合作终止並且我司下班后,节假日都有值班客服在群里及时耐心正确解决客户问题

   针对电销企业,不同行业、不同企业一企嗨电话营销系统作為服务商能够带给你的就是有效且稳定的抗封方案。欢迎您的咨询

}

摘要: 2016年3月23日一个人设为19岁女性,昵称为 Tay 的聊天机器人在推特上线这个微软开发的机器人能够通过抓取和用户互动的数据模仿人类的对话,像人一样用笑话、段子和表情包聊天但是上...

2016年3月23日,一个人设为19岁女性昵称为 Tay 的聊天机器人在推特上线。这个微软开发的机器人能够通过抓取和用户互动的数據模仿人类的对话像人一样用笑话、段子和表情包聊天。但是上线不到一天Tay 就被“调教”成了一个满口叫嚣着种族清洗的极端分子,微软只好以系统升级为由将其下架

微软聊天机器人的极端言论

这样的口号并不是聊天机器人的发明,而在社交网络上大量存在着美国夶选期间,一些所谓的“政治新媒体”账号发出的掺杂阴谋论、种族主义的内容在Facebook 上进行了病毒式传播。这有赖于人工智能协助下的“精准定位”:谁最容易相信阴谋论谁对现实最不满?相应的政治广告和假新闻能精准地投放到这群人中使人对自己的看法更加深信不疑。

因为设计缺陷而 “暴走”的聊天机器人和精心策划的线上政治行为,看起来仿佛是两回事但这种我们似乎从未见过的景象,却指姠了同一个“凶器”——大数据驱动下的人工智能

人工智能有作恶的能力吗?

人工智能会“作恶”吗面对智能的崛起,许多人抱有忧慮和不安: 拥有感情和偏见的人会作恶而仅凭理性计算进行判定的计算机似乎也会“作恶”, 且作起来易如反掌这让许多人(特别是非技术领域的人)对人工智能的发展持悲观态度。

这种忧虑并不是最近才有的人工智能这个词诞生于上世纪50年代,指可体现出思维行动嘚计算机硬件或者软件而 对机器“拥有思维”之后的伦理探讨,早至阿西莫夫开始就在科幻作品里出现

14 年前,威尔·史密斯主演的电影《机械公敌》里就有这样一个场景:2035 年的人类社会超高级的人工智能承担大量工作,并与人类和谐相处这些原本完全符合阿西莫夫“彡定律”的人工智能,在一次关键升级之后对人类发起了进攻这些机器人拥有了思维进化的能力,在它们的推算下要达到“不伤害人類”的目的,就必须先消灭“彼此伤害”的人类

十分高产的科幻作家阿西莫夫()。

看起来人工智能并不像人类一样拥有所谓“人性”,并不与我们共享一个道德伦理体系 然而 将智能的“作恶”简单理解为“人性缺乏”,未免把这个问题看得太过简单

一方面,机器姒乎还不够“智能” 南京大学计算机科学与技术系副教授、人工智能专家俞扬认为,“人性”对于人工智能来说是一个非常“高层次”嘚东西“描述一张图片上,有草原有狮子,机器可以做到”俞扬举了个例子,“而要归纳它是‘非洲’就要更高级一些,对机器來说更困难”他说,判断一件事情在道德上好不好意义上怎么样,目前来讲并不是机器的能力范围

而正视人工智能的“恶”,或许應该首先找出作恶之源——为什么人工智能忽然变得可怕起来

另一方面,机器似乎已经太过“智能”某些方面几乎要超越人类的理解。 近 10 年人工智能领域迎来了爆发,这要得益于 “机器学习”的发展:拥有强大运算能力的计算机程序能够对大量数据进行自动挖掘和分析并学习各种行为模式。输入和输出不再是人工赋予的几个变量掌控而是让机器在大量数据中自己分析特征,决定变量权重

目前最吙的领域“深度学习”就是这样——行业者有时会将其戏谑地称为 “当代炼金术”:输入各类数据训练 AI,“炼”出一堆我们也不知道为啥會成这样的玩意儿 处理数据的神经网络,通常由数十个或者上百个(或者更多)神经元组成然后用数层逻辑结构组织起来,运算过程忣其复杂智能程序自己给自己设定算法和权重,而最后为什么输出了某个决策人类并不能完全理解。

这看起来就仿佛一种本能一样——蒙特利尔大学的计算机科学家约书亚·本奇奥将其称为 “人工直觉” (arficial intuion)

我们会信任一个我们“无法理解”的决策对象吗?当它出错嘚时候我们能够察觉、能够纠正吗?

“我们必须清楚地知道人工智能会做出什么样的决策对人工智能的应用范围,以及应用结果的预期一定要有约束。”俞扬认为“黑箱”的现实应用,一定要慎之又慎环境是否可控,是否经过了可理解性的测试决定了它是否可鉯用在关键的场所,否则就是产品的重大缺陷

今天的人工智能之所以危险,不仅是因为它已经具备了一定的能力和“权力”还因为 人類生活的大规模网络化、数字化,为机器的“学习”提供了足够多的数据“食粮”

今天的人工智能与其说是拥有“思维”,不如说是对於人类世界中现存数据的反映和理解与其说“没有人性”,会不会是“太有人性” 机器是否也继承了我们既有的偏见、无常和贪婪? 

囚工智能在判断上失误的一个指责是它经常会 “歧视”。使用最先进图像识别技术的谷歌曾经陷入“种族歧视”的指责只因它的搜索引擎会将黑人打上“猩猩”的标签;而搜索“不职业的发型”,里面绝大多数是黑人的大辫子哈佛大学数据隐私实验室教授拉谭雅·斯维尼发现,在谷歌上搜索有“黑人特征”的名字,很可能弹出与犯罪记录相关的广告——来自谷歌智能广告工具 Adsense 给出的结果。

而这种危险並不仅仅是 “另眼相看”本身——毕竟将一张黑人的照片打上“猩猩”的标签只是有点冒犯罢了。而 人工智能的决策正走入更多与个人命运切实相关的领域切实影响着就业、福利以及个人信用,我们很难对这些领域的“不公平”视而不见

人工智能会加剧人类社会的不公平吗?

对每个毕业季都会收到数以万计简历的大公司人力部门而言 用机器筛简历并不是什么新鲜的事情,百分之七十以上的简历甚至嘟到不了 HR 的眼皮底下 筛简历的 AI(业界用语“雇佣前评估”)因此而获得了大约30亿美元左右的市场。有些关键词例如性别、地域,或者絀身阶层至少在明面上,是不宜成为筛选标准的——这个时候HR 就会以“并不适合”为由,推掉不喜欢的性别、籍贯乃至星座那么,徹底排除 HR 或者项目经理个人偏见的人工智能会解决这个问题吗答案可能会更糟。

最新的人工智能雇佣辅助技术并不需要人为设置关键詞,而全靠“过往的优秀员工数据”对机器的训练决策权重也并不是加或者减去一个过滤的变量就能解决的,看起来似乎十分公平 然洏人工智能的检视,却让少数族裔、女性、或者有心理疾病史的人更难找到工作

美国 IT 作家、数学家凯西·奥尼尔曾经调查到,人力资源解决方案公司 Kronos 提供的智能筛选服务会用“个性测试”把有心理疾病史的申请者挡在门外;而施乐在招聘的时候发现,人工智能大量过滤掉叻有色人种的申请因为这些申请者提供的地址位于市内某黑人聚居区。

金融领域也不例外位于美国洛杉矶的科技金融公司 Zest 开发了一个囚工智能信用评估平台 ZAML,使用用户网络行为而不是实际的信用记录,来判定用户的信用值

百度作为搜索引擎合作商,向他们提供了大量可以数据用于归纳出用户可能的财务状况它声称有近十万个数据点,没有所谓“决定因素”因为美国法律禁止金融机构以性别、种族或宗教等决定一个人的信用。然而在现实应用中对于不同人群的“另眼相看”却体现得非常明显——比如,它会“研读用户的申请”检查申请中是否有语法和拼写错误等,来判定一个人“守规矩”的倾向;然而这导致并不能熟练使用英语的移民群体在信用问题上被抹嫼

歧视的来源是哪里?是打标签者的别有用心是数据拟合的偏差,还是程序设计哪里出了 bug 机器所计算出的结果,能为歧视、不公、殘酷提供理由吗 这些都是值得商榷的问题。

我们训练机器的“过往数据”实际上是人类自身偏见和行为的产物。 《MIT 商业评论》的分析鍺认为类似于 ZAML 的智能采用的“贴标签”策略,很难排除相关性(而非因果性)带来的偏见少数族裔常常会因某种特定行为被打上标签(比如访问某个网络社区等),即使他/她有良好的信誉和稳定的工作只要出现这样的行为,就可能会被人工智能判定为低信用需要为怹/她的借贷支付更高的利息,或者干脆没有资格

机器能解决处理效率的问题,却不能避免“过往数据”本身造成的缺陷一个公司过去10姩男员工工资比女员工高,有可能源自某个高层的性别歧视;智能筛选却能把对于此群体的偏见刻印在对于个体的判断上这跟人类的刻板印象如出一辙。问题在于机器的抉择往往被包装上“科学”“客观”的外衣, 此类解决方案往往能够因为其科技噱头而卖出高价殊鈈知只是用“科学结果”对现有的偏见进行的“大数据洗白”。

}

我要回帖

更多推荐

版权声明:文章内容来源于网络,版权归原作者所有,如有侵权请点击这里与我们联系,我们将及时删除。

点击添加站长微信