请朋友们使用新域名 www.gcores.com 访问机核,并更新移动端 App

核聚变 Tour 厦门站 听这段

「核聚变 Tour 2018 厦门站」将于2018年12月15日、16日,在福建省厦门市思明区会展路198号 厦门国际会议展览中心C2馆举办,票价为单日 79 元/人。如果您还没有购买门票,欢迎点击链接进行购买。

资料来源,点击进入

开场 BGM 听这段

欢迎您收听本期电台节目。您现在收听到的开场 BGM 是美剧《西部世界》的主题曲《Main Title Theme-Westworld》。

资料来源,点击进入

人造意识第三期 听这段

本期是人造意识专题的第三期,也是最后一期节目。在本期节目中我们将跟大家聊聊人造意识能不能在现实生活中出现。如果您还没有听过前期节目可以点击链接收听。

资料来源,点击进入

与人对话的能力 听这段

在人造意识中,人造意识与人对话的能力是非常重要的一项功能。现在我们应用的许多人工智能软件都有与人对话的能力:比如 Siri、亚马逊的 Alexa 等等。

Woebot 听这段

Woebot是临床心理学家 Alison Darcy 研发基于Facebook Messenger的聊天机器人。Woebot基于认知行为疗法。与精神分析疗法不同,认知行为疗法关注的不是事件本身,而是人们如何理解某些事件。这款软件目前可以在苹果与谷歌的移动软件商店下载,链接为该软件的官方网站。

资料来源,点击进入

吴恩达出任Woebot董事长 听这段

据外媒报道,Google Brain项目联合创始人、前百度首席科学家吴恩达即将出人Woebot公司董事长,该公司的主要产品是一个同名的聊天机器人。 吴恩达加入Woebot后,在接受采访时表示,加入Woebot并不是他的全职工作,他只是在该公司的董事会任职,并为其提供技术上的指导和工作上的支持,他还有其他的事情要做,比如继续在自己创建的在线学习网站Coursera上开展深度学习系列的课程。

资料来源,点击进入

对话树选择 听这段

目前 Woebot 还是类似于那种恋爱养成类游戏,采用对话树选择的方式与使用者沟通。也就是说,使用者得自己选择事先准备好的对话,自己动手打字表达自己想法的机会没多少。

做不成 听这段

小李老师认为人造意识是做不成的,接下来就请他讲讲为什么认为人造意识在现实中很难出现。

没法定义但能聊 听这段

人造意识并没有一个准确的定义,但是并不代表我们就不能聊人造意识。

“跑” 听这段

“跑”这个词就有很多很多的意思,跑这个词在现实生活中不同场景中的意思也是不一样的,就没有一个统一的定义。意识也是这样。

格拉斯哥昏迷评分法 听这段

格拉斯哥昏迷评分法(GCS, Glasgow Coma Scale)是医学上评估病人昏迷程度的方法,是由英国格拉斯哥大学的两位神经外科教授 Graham Teasdale 与 Bryan J. Jennett 在1974年发明的测评昏迷的方法。 昏迷程度以三者分数相加来评估,得分值越高,提示意识状态越好,格拉斯哥昏迷评分法(GCS)来判断病人的意识情况,比较客观。

资料来源,点击进入

眼睛与身体 听这段

医师会给予患者一些疼痛刺激,看患者在眼睛与身体上相对应的反馈。如果患者没什么反应基本上就是重度昏迷了。

外界不刺激 听这段

在好一点的情况下,在没有外界刺激的情况下患者也能把眼睛睁开,身体,作出反应。

相应命令 听这段

更好一点的情况下,患者可以针对医生发出的命令做出反应,闭眼睁眼或者身体进行一定的动作。

自主运动 听这段

最好的情况时患者可以自主进行一些活动,这是最好的情况,患者也是最清醒的。

没有反应 听这段

在语言反应中,最不好的情况下是无任何反应。

不可识别 听这段

比没意识好一点的情况是:可发出声音(unintelligible sounds):对疼痛刺激仅能发出无意义叫声。

不合逻辑 听这段

再好点的一种情况是:说出来的话没什么逻辑,但起码能有一点反应了。

合逻辑了 听这段

更好的一种情况是患者说出来的话有一定逻辑了,但可能所答非所闻。

最好情况 听这段

最好的情况是患者定向能力正确,能清晰表达自己的名字、居住城市或当前所在地点、当年年份和月份。

白血病治疗 听这段

鱼炒饭老师在确诊了白血病之后一直在进行治疗,他记录下了他整个治疗的经历,有兴趣的朋友可以点击链接查看。

资料来源,点击进入

图灵测试 听这段

图灵测试(The Turing test)由艾伦·麦席森·图灵发明,指测试者与被测试者(一个人和一台机器)隔开的情况下,通过一些装置(如键盘)向被测试者随意提问。 进行多次测试后,如果有超过30%的测试者不能确定出被测试者是人还是机器,那么这台机器就通过了测试,并被认为具有人类智能。图灵测试一词来源于计算机科学和密码学的先驱阿兰·麦席森·图灵写于1950年的一篇论文《计算机器与智能》,其中30%是图灵对2000年时的机器思考能力的一个预测,目前我们已远远落后于这个预测。

资料来源,点击进入

先天假设 听这段

格拉斯哥昏迷评分法基于在我们先天假设人具有意识的情况下进行的,所以测验对人是有效的。

总统是谁 听这段

可能在美国就问你现在的总统是哪一位了,如果您回答一个克林顿估摸着还没完全清醒呢。

最基础的常识 听这段

我们日常生活中肯定不会问这些问题,因为这些都是世人皆知的最基础的常识。但是患者有可能就会把这些问题忘掉,所以问这些问题就可以得知患者的恢复程度。

没常识 听这段

我们说人造意识可以做许多许多的事情,但是对于常识性的问题他们缺乏了解。

common sense 听这段

常识的英文是 common sense 。其中 sense 的意思是共通的感觉或者感知。

知识化 听这段

人工智能认为:一切感觉都可以知识化,以知识的方式灌输给机器。

缺乏农业常识 听这段

现在生活在城市里的孩子几乎没去过农村,可以说缺乏一定农业常识。

人际规范 听这段

人际规范作为一套体系是运用在各式各样的情景中的,当然不是背几条理论就能学会的。

非知识性的 听这段

我们之前提到的人际交往、谈恋爱等等就是非知识性的,这并不是能灌输就能学会的。

吸烟有害健康 听这段

吸烟有害健康是大家都知道的常识。

知道得病了 听这段

小李老师的爷爷可能就是知道:因为抽烟得了肺结核才知道了“吸烟有害健康”这个常识,所以就把烟戒了。

喝酒不开车 听这段

好多人一开始也是抱着侥幸心理喝完酒就开车,真被警察拦下来一次或者撞回车就不敢喝酒后开车了。

体验与经历 听这段

体验与经历是两个不同的词。体验指的是:在实践中认识事物;亲身经历。经历指的是:自身或他人见过、做过或遭遇过的事。我们往往讲:多体验的事情最后会成为一种经历。体验可能就一次,但经历是多次的。而且体验是个外在的东西,经历比较内在。

阿尔法狗 听这段

阿尔法狗是谷歌的人工智能,它训练围棋的时候一天能下好几百万盘,这是大家都比不了的经历。

有体验吗 听这段

阿尔法狗下了那么多围棋,有那么多经历,那么它有体验吗?这个谁都不知道,或许阿尔法狗自己可能都不知道。

与患者对话 听这段

我们都知道:医生在和患者谈话的时候会有很强的体验感,但是 woebot 可能就没有体验感,所以它就缺乏常识。

要命了 听这段

下围棋这事很理性,没有体验还则罢了;但你要疏导患者的心理,没点儿体验就要命了。

不能多聊 听这段

我们平时问 Siri 天气、温度还可以,但是你要问它比较常识化的问题就够呛了。

PUA 听这段

PUA,全称(Pick-up Artist),起初指的是一群受过系统化学习、实践、和不断自我完善情商的男性。后来泛指很会吸引异性,让异性着迷的男女们。字面上的解释,PUA指的是搭讪艺术家,但因为PUA文化的变迁和进步,PUA的定义已从简单的搭讪扩展到整个两性交往流程。发展为主要涉及:搭讪(初识)、吸引(互动)、建立联系,升级关系、直到发生亲密接触并确定两性关系的社交学说,PUA学是心理学和行为科学所组成的一门新的交叉学科。 要提醒各位一句,别用这种东西伤害姑娘!

没这个经验 听这段

用 PUA 这种方式谈恋爱真的不算是真正的谈恋爱,没有谈恋爱的经验。

得有体验 听这段

你得谈过一次恋爱,体验过被爱的感觉才知道什么是恋爱,才有谈恋爱的经历。

很简单的问题 听这段

现在的美国总统是谁?历任美国总统是谁?这都是很简单的问题。

Wordnet 听这段

WordNet是由Princeton 大学的心理学家,语言学家和计算机工程师联合设计的一种基于认知语言学的英语词典。它不是光把单词以字母顺序排列,而且按照单词的意义组成一个“单词的网络”。链接为 WordNet 的官网。

资料来源,点击进入

英国思想 听这段

现在世界属于西方体系下的世界,而西方体系又划分为大陆体系与英国体系。现在我们处在的就是英国体系下的世界。当前世界偏向于实用主义。

约翰·洛克 听这段

约翰·洛克(John Locke,1632年8月29日-1704年10月28日)是英国的哲学家。在知识论上,洛克与乔治·贝克莱、大卫·休谟三人被列为英国经验主义的代表人物,但他也在社会契约理论上做出重要贡献。

资料来源,点击进入

Sense Data 听这段

Sense data 是洛克认为构成经验的基础理论。他认为认识是由不同的感觉的材料构成的。在洛克的观点中,经验是高度集中的。

变成公式 听这段

约翰·洛克在这套理论下认为经验可以变成一个一个的公式,可以数学化。

共同感觉 听这段

被火燎了一下和分手后有一种共同的感觉,那就是恶感,不好的感觉。

大卫·休谟 听这段

大卫·休谟(David Hume,1711年5月7日-1776年8月25日)是苏格兰的哲学家、经济学家、和历史学家,他被视为是苏格兰启蒙运动以及西方哲学历史中最重要的人物之一。虽然现代对于休谟的著作研究聚焦于其哲学思想上,他最先是以历史学家的身份成名。他所著的《英格兰史》一书在当时成为英格兰历史学界的基础著作长达60至70年。

资料来源,点击进入

休谟观点 听这段

休谟认为:我们不可能知道有哪些东西会必然的导向某一个感觉。

走洛克观点 听这段

现在在人造意识方面基本赞成洛克的观点。

赋予知觉 听这段

现在的人造意识开始着重赋予它们知觉,尤其是视觉。比如识别人脸等等。

主体知觉 听这段

主题知觉指的是人直接感知到的知觉,是意识直接感应到“我”的过程。比如回忆昨天晚上吃了什么,就能够想到你昨天吃了什么。这就是主题知觉。

目标知觉 听这段

目标知觉指的是人对于某个特点目标产生的知觉。渴了要喝水就是一种目标知觉。

身体知觉 听这段

身体知觉是人通过感官感受到的知觉。触摸、闻味都是身体知觉。

视而不见 听这段

人的看的感觉在大部分的情况都是视而不见的.尽管睁着眼睛看,却什么也没看见.

没有注意力 听这段

自动驾驶汽车会把它看见的所有东西全部分辨出来,没有注意力这一说.

吴清源 听这段

吴清源(1914年6月12日-2014年11月30日),名泉,字清源,以字行,出生于中国福建,现代围棋名家,日本退休职业棋士,又号“昭和棋圣”。七岁开始学棋,数年后已难逢敌手,有“天才神童”之称。后来获旅华日本棋手井上孝平五段赏识,引荐给日本围棋长老濑越宪作七段。其后远赴日本,称雄日本棋坛数十年,开创新布局,获棋坛誉为“现代围棋第一人”。

资料来源,点击进入

数量最大化 听这段

数量最大化是机器很容易感知,也很容易做到的一个目标.

有争议了 听这段

下和棋还得"美",那这有没有一种评判标准?什么叫做"美"?这就有争议了.

不是最大化的 听这段

我们说一个人脑子太轴了,一根筋,很明显选择就不是利益最大化的那一个.

更复杂 听这段

我们姑且算机器可以把目标感知数据最大化,但很明显人的目标感觉要比机器的更加复杂.

感知内伸 听这段

人类的感知是可以进一步内化与延伸的.

血腥场面 听这段

我们脑子里想到一个血腥场面,就会感觉特别疼.

崴脚 听这段

崴过一次脚,每次回忆起来依然觉得很疼.

想就可以 听这段

有些目标感知不需要与外界去接触,自己想也可以做到.

Atlas机器人 听这段

Atlas机器人(英语:Atlas(robot))是一个双足人形机器人,由美国波士顿动力公司为主开发,和由美国国防部国防高等研究计划署(DARPA)的资助和监督。这个身高6-英尺(1.8-米) 的机器人是专为各种搜索及拯救任务而设计,并在2013年7月11日向公众亮相

资料来源,点击进入

教人工智能 听这段

现在有专门的工作去教人工智能,帮助人工智能,看看它们识别的结果是对的还是错的.

需要外部刺激 听这段

可能我们识别东西或许没那么困难,但机器需要外部刺激,需要海量的数据去辅助识别.

空虚 听这段

有时候人的确会感到空虚,感到寂寞,干什么够没劲.

什么都没有 听这段

人觉得空虚就是因为什么都没有,你无事可做.但怎么让机器感受到空虚呢?

很难获得 听这段

正是因为人的感觉的复杂性,所以让机器获得这些感觉是非常困难的.

到达临界点 听这段

机器在深度学习时会到达一个临界点,之后获得意识.

五大算法 听这段

有人归纳了计算机的五大常用算法,它们是贪婪算法,动态规划算法,分治算法,回溯算法以及分支限界算法。

资料来源,点击进入

自学习 听这段

在深度学习的算法下,机器人可以自主学习,比如阿尔法狗就可以自己与自己下棋.

应用领域宽 听这段

深度学习常常被看作是通向真正人工智能的重要一步,因而许多机构对深度学习的实际应用抱有浓厚的兴趣。2013年12月,Facebook宣布雇用燕乐存为其新建的人工智能实验室的主管,这一实验室将在加州、伦敦和纽约设立分支机构,帮助Facebook研究利用深度学习算法进行类似自动标记照片中用户姓名这样的任务。 2013年3月,杰弗里·辛顿和他的两位研究生亚历克斯·克里泽夫斯基和伊利娅·苏特斯科娃被谷歌公司雇用,以提升现有的机器学习产品并协助处理谷歌日益增长的数据。谷歌同时并购了辛顿创办的公司DNNresearch。 2016年3月,以深度学习开发的围棋程序AlphaGo首度在比赛中击败人类顶尖选手,形成广泛的讨论。

资料来源,点击进入

deep 听这段

deep 这个词并不是含有深度,而是与过去相比算法层数增加了,层数更深了.

不具有社会深度 听这段

深度学习算法是不具有社会深度的.

一模一样 听这段

深度学习说到底与其他算法的根是一模一样的,是一门统计学,是一个不同的统计方法.

相关性判断 听这段

统计学不讲因果关系,得出的结果大都是相关性判断.

倾向因果 听这段

尽管许多因果关系是错误的,我们仍然倾向于因果关系判断.

避免死胡同 听这段

现在强大的算法能避免遇到死胡同,找到很强的相关性.

做重大决策 听这段

在第二次世界大战期间,人类需要对许多事情做出重大的决策.一个决策做错了就可能造成十分严重的后果.

兴起 听这段

面对各个战场传来的各式各样的战报与情报,美军就开始应用统计学来处理大量的数据.

没怎么变过 听这段

现在的核心算法利用的还是从20世纪70年代固定下来的控制论与相对论,并没有发生特别大的变化.

为少数人服务 听这段

控制论的初衷并不是为了人民的福祉,而是为了少数人做出决策来控制大的局面.

从未变过 听这段

发展人工智能也是为了少数人控制大场面,就跟二战时期的美军控制各个战场一样.

没那么厉害 听这段

人造意识目前的发展仍然有许多问题与阻碍,所以没有我们想象的那么厉害.

领域有限 听这段

目前人造意识能够应用的四大领域是:语音识别,图像识别,语义识别,游戏.领域是比较有限的.

诺姆·乔姆斯基 听这段

艾弗拉姆·诺姆·乔姆斯基(Avram Noam Chomsky,1928年12月7日—),美国哲学家。是麻省理工学院语言学的荣誉退休教授。乔姆斯基的《生成语法》被认为是20世纪理论语言学研究上最伟大的贡献。

资料来源,点击进入

学英语 听这段

脑子聪明的人学起英语来没有那么困难,把各种关系记住了就行.但对于机器来说这个事情就没那么简单了.

不知道了 听这段

你和 Siri 对话说个很普通的词它能明白,但是说的东西含的意思比较多就困难了.

做得更多 听这段

目前人造意识在图像识别领域的作用比较大,但是人脑做的东西就更多了.

需求量大 听这段

人造意识需要大量的数据,来完成自己需要的做的工作.

还是人开 听这段

自动驾驶的测验还是人来开,只不过是让机器去识别.

炒菜 听这段

让人工智能炒个菜那就太困难了,毕竟变数太多,机器把握起来很困难.而且速度实在是太慢了.

语义较少 听这段

人工智能在翻译上能大展身手,是语义还是比较少,人工智能练的过来.

虚拟化 听这段

虚拟化的场景适合人工智能,在这个场景里人工智能自己就能和自己练.

应用面极窄 听这段

人工智能的每一个应用都非常非常窄,它对于每一个新的细致目标的识别都需要一套与之对应的系统来匹配。

无法想象 听这段

对人来说,识别猫、狗或是大象,调用的都是一个能力,再去认识一个新事物并不是什么困难的事情。但对人工智能而言却并非如此,我们也无法想像人工智能能够像人一样去识别事物。

引申与类比 听这段

对人工智能来说,准确处理语意上的引申与类比也是一件极其困难的事情,因为机器无法单靠算法去理解这其中的一些规则,这也是为什么大家用翻译软件翻译外文时得出的结果极其生硬的原因。

举个例子 听这段

“John promised marry to leave.”和“John promised to leave marry.”这两个句子的词都是一样的,只有单词语序的变化,不过语意完全不同。但在翻译软件上,却识别不出来。

无法做到幽默 听这段

人类语言中的幽默感,基本就是靠引申与类比来塑造的,无法搞懂这一点的人工智能注定是不会给人带来真正的幽默感。

深度学习的“深” 听这段

深度学习(deep learning)是一种试图使用包含复杂结构或由多重非线性变换构成的多个处理层对数据进行高层抽象的算法。并不是大家正常理解的那个“深”的意思。

资料来源,点击进入

都在误用 听这段

深度学习常常被公众看作是通向真正人工智能的重要一步,因而许多机构对深度学习的实际应用抱有浓厚的兴趣。但就现实而言,深度学习只是建造智能机器这一更大挑战中的一部分,并不是什么终极目标。所以出现了公众和从业者都在误用的情况。

机器与记忆 听这段

记忆对人类的学习而言至关重要,只有记得住才能学得好。但对机器来说,如何获得和人一样的记忆是一个相当难的问题。目前来说,机器只能存储数据,而不是记忆。

程序性记忆 听这段

人的长期记忆可以分为陈述性记忆和程序性记忆。程序性记忆(procedural memory),一种长期记忆的形式,指关于技术、过程、或“如何做”的记忆。记忆有时候会被贮存在程序记忆(procedural memory)中,当一个人做了某一特定身体动作时,便触发了这个记忆。

资料来源,点击进入

陈述性记忆 听这段

陈述性记忆(英语:Declarative memory,又名述说记忆、宣告记忆),有时也被称为外显记忆(Explicit memory),是人类长时记忆形式的一种。它指的是能够明确想起某个事件或事实的一种记忆。跟它相对的,是程序记忆,或是内隐记忆,那是属于无意识,不能被表述的记忆形式。

资料来源,点击进入

无法赋予 听这段

人的记忆是由一个以“自我视角”为出发点,进而勾连起来的。难以想象人要如何去赋予机器这些功能。

前沿领域 听这段

机器常识、机器知觉、机器学习和机器记忆是目前人造意识领域里最前沿的四个研究方向,它们最终要实现的目标总体来说都是要赋予机器一些人类的能力。

是否有必要一样? 听这段

人工智能或许也可以作为某些领域的特殊应用科学,只去考虑在单方面的实际应用,不用去真的和人类一模一样。

当造物主的梦 听这段

在之前的《西部世界》专题节目里我们就曾多次提及到“人有当造物主的梦”。对“造物主”而言,只有造出最像自己、最高级的东西,才最能证明自己。

具有商业价值 听这段

如果机器真的可以完全模拟人,那无疑可以在很多方面上带来巨大的商业价值和其它的现实意义,所以会有人去钻研。

实现自我价值 听这段

对于那些不为利益的科学家来说,研究人工智能更多的就是为了实现自我价值,如果真的能够搞出来,肯定是要名留青史的。

与科幻无关紧要 听这段

人工智能究竟能不能真正的模拟人,其实对科幻创作者而言根本不重要,科幻不是科学,他只是对科学的幻想。科幻要去做的是想像技术实现之后世界的变化,让技术落地的事情是科学家们的事业。

构建机器常识 听这段

目前阶段,构建机器对知识性常识的理解主要是在构建行为和结果,要让机器知道事情是先有因后才能有果。

机器的局限性 听这段

机器对这些常识的学习只能一条一条的来,而人却具有举一反三的能力,让这一切都变得很轻松。

时间性知识 听这段

对于时间性知识,人的判断方法是用逻辑进行判断的,可以不依靠具体的时间节点。但机器的判断方法却还是只有那一种,还是要一条一条的教。

定性的常识 听这段

人会天然的觉得什么东西是好的、什么东西是坏的,但机器不会,必须要逐个去学习才能掌握。

在医学上的帮助 听这段

机器这种看起来不怎么灵活的的特性其实在医学上可能会有很大的帮助,如果能够运用得当,对医疗诊断会起到很大的帮助。

保罗·艾伦 听这段

保罗·加德纳·艾伦(英语:Paul Gardner Allen)是美国发明家、投资者、考古学家和慈善家,微软的两位创始人之一。2018年10月15日下午因非霍奇金氏淋巴瘤并发症逝世,享寿65岁。

资料来源,点击进入

西医与人工智能 听这段

在西方医学体系里,人和人的身体运转都是遵循着一套基本一样的规律,有一个统一的标准。所以人工智能的常识认知可以在这方面起到很大的作用。

中医与人工智能 听这段

中医理论来源于对医疗经验的总结及中国古代的阴阳五行思想。中医对待每个病人都是具体情况具体分析,所以普遍的常识和简单的套用并不是很适合中医。

机器知觉 听这段

机器知觉主要致力于的方向是让机器拥有“听”、“看”等能力,用摄影机和计算机对目标进行识别、跟踪和测量。

星际战士 听这段

《战锤40K》中的星际战士有多个多肺,在有毒空气中,一个伴生括约肌关闭气管,阻止普通呼吸以保护肺部。多肺能从缺氧或有毒的空气中吸收氧气。更重要的是,由于其有效的毒素分解和中和能力以及再生系统,它不会因呼吸毒气而受损。

资料来源,点击进入

搞人搞不了的 听这段

如果只将机器知觉局限在人的知觉能够识别出来的事物,其实意义很有限,如果能够将这机器种知觉拓展到人类知觉之外的事物,其价值可能会更大一些。

行为经济学 听这段

行为经济学承袭经验主义,并受到心理学与认知科学的影响,探讨社会、认知与情感的因素,与个人及团体形成经济决策的背后原因。

内啡肽 听这段

内啡肽(endorphin),亦称安多酚或脑内啡、脑内吗啡,是一种可于动物体内自行生成的类吗啡生物化学合成物。它能与吗啡受体结合,产生跟吗啡、鸦片剂一样的止痛效果和欣快感。当运动量超过某一阶段时,体内便会分泌脑内啡肽。

资料来源,点击进入

荣格的四种方式 听这段

心理学家卡尔·荣格将人的认知方式分为思维、情感、感觉、直觉这四种。他还提出内倾和外倾的心理类型,并将其与思维、情感、感觉、直觉四种功能类型进行匹配。提出了八种人格类型:外倾思维型、内倾思维型、外倾情感型、内倾情感型、外倾感觉性、内倾感觉型、外倾直觉型、内倾直觉型。

资料来源,点击进入

MBTI 听这段

美国的凯恩琳·布里格斯和她的女儿伊莎贝尔·布里格斯·迈尔斯研制了迈尔斯-布里格斯类型指标(MBTI)。这个指标以瑞士心理学家荣格划分的8种类型为基础,加以扩展,形成四个维度,四个维度如同四把标尺,每个人的性格都会落在标尺的某个点上,这个点靠近那个端点,就意味着个体就有哪方面的偏好。如在第一维度上,个体的性格靠近外倾这一端,就偏外倾,而且越接近端点,偏好越强。

资料来源,点击进入

模仿直觉 听这段

人工智能现在的发展方向只是能让其有机会模仿人的思考学习方式,但是直觉和感知这些是模仿不了的,当然即使只是能模仿思考也已经很了不起了。

看话剧 听这段

我们作为观众看话剧的时候就只是看,无论台上发生了什么事,即使它会带动我们的情绪,我们依然只是坐在台下看。

Beholding holds 听这段

Beholding holds 意指纯粹地观察、感觉而不作出反馈,例如即使是一个饥饿的人也可以看到事物而不吃。

刺激-响应 听这段

人工智能现在的发展方向还是在针对刺激给出适当的响应,最终得到结果。

下丘脑 听这段

下丘脑位于丘脑沟以下,形成第三脑室下部的侧壁和底部。重量仅4g,占全脑的0.3%左右。下丘脑面积虽小,但接受很多神经冲动,故为内分泌系统和神经系统的中心。它们能调节垂体前叶功能,合成神经垂体激素及控制自主神经和植物神经功能。任何下丘脑合团损伤都会引起动机行为的异常,如:摄食、饮水、性行为、打斗、体温调节和活动水平。

资料来源,点击进入

相关性 听这段

神经科学现在的研究更多是研究生物体结构和某些行为的相关性,对于具体如何实现以及如何应用尚不清楚。

身体感觉 听这段

如果能赋予人工智能以一个身体感觉这个世界,也许人工智能就可以通过这些身体感受而拥有现在无法获得的经验。

小朋友认知世界 听这段

小朋友认知世界并不需要很大的知识量,看到一两次猫、狗这些小动物,下次再见到即使不是同品种的猫狗也一样能认出。而机器要认识这些动物需要海量的图片才能学会。

碎片与联系 听这段

人认识世界不是靠堆叠大量的数据,而是能够通过思维将碎片一样的信息联系在一起。

效率低下 听这段

如果人工智能不能像人类这样拥有将知识碎片联系起来的能力,那么学习效率将无法提高。

API 听这段

API(Application Programming Interface,应用程序编程接口)是一些预先定义的函数,目的是提供应用程序与开发人员基于某软件或硬件得以访问一组例程的能力,而又无需访问源码,或理解内部工作机制的细节。

资料来源,点击进入

人非如此 听这段

我们在建立人工智能时将人的感觉传达给大脑信息这些过程进行了拆分,但实际上人的经验和感觉是一体的而不是接口关系。

并非纯粹的逻辑或非逻辑 听这段

人在对事物做判断时既不是纯粹的逻辑也不是纯粹的非逻辑,例如赌博时,对于机器可能就只是一个随机数了,而人可能会先以逻辑判断成功几率等最后再进行随机。

难以模拟 听这段

人对于逻辑和非逻辑的应用没有一定的范式,在面对不同事时都有不同的运用方式,因此人工智能也难以模拟这个过程。

随机数 听这段

大部分程序和语言中的随机数(比如 C 和 MATLAB )都只是 伪随机 。是由可确定的函数(比如线性同余),通过一个种子(比如时钟),产生的伪随机数。而人类是否能在计算机做出真正的随机数这件事还是存疑的。

为什么痴迷于人工智能 听这段

人们究竟为何如此痴迷于人工智能,而以下讲的也只是我们的一个观点而已,也欢迎大家在评论区说出你们的看法。

希望人人平等 听这段

也许希望人人平等是人们痴迷于人工智能的原因之一,因为如果有一个超越人类很多的人工意识的话,人和人之间的差距就不再那么突出了。

历史由谁决定 听这段

有一种观点认为历史并不是由人决定的,因为人与人的差距并不大,历史是有自己的发展规律的。

创造音乐 听这段

在以前的节目中我们聊到过人工智能虽然可以创造音乐,但是它无法选择究竟什么是好的音乐,因此这个事没有价值。但这个问题似乎确实可以用点赞、收藏这种成本很低的办法解决。

新的不平等 听这段

采用这种选取乐曲的方式会造就新的不平等,上层阶级直接付费享受选好的音乐,而选歌的那些人就成为了底层阶级。

越来越多 听这段

随着人工智能不断发展,扩散到的不同领域远不止作画作曲这些,而这就会造就越来越多的不平等。

短期特殊样本冲击 听这段

以现在人工智能的算法来看,很难抵御短期的特殊样本冲击,想要把整个系统搞坏可能并不需要很大成本。

容易破解 听这段

比如现在手机上都有的人脸识别系统,即使是高级的人脸识别系统依然需要对脸上一些特别结构的识别,而低端的人脸识别系统甚至只需要照片就足以破解。

自动驾驶 听这段

在自动驾驶发展成熟并且全人类都在用时,可能就会像电影《I,Robot》中那样,汽车的行驶更像工厂传送带上的货物而不是驾驶,而这样一旦出现一个手动驾驶不按照这个规则的人,就会导致系统出现问题。

高度标准化城市 听这段

为了实现高完成度的自动驾驶,我们需要建立高度标准化城市,而且可能需要居民将自己的部分隐私让渡给管理系统。

加剧标准化 听这段

为了人工智能的应用,需要付出的成本巨大:包括无趣的标准化,隐私风险等,但是得到的收益可能并没有那么大。

只要人够蠢 听这段

其实只要人足够蠢,只能看到眼前利益而不考虑长远未来,会逐渐被驯化,我们就变成了人工智能。

医学应用 听这段

在医学应用中,只是因为换了机器类型而导致误诊几率大大增加。人工智能不会思考这个诊断是否有误,而是通过它之前学习到的判定这就是病症。

人不会那么蠢 听这段

虽然我们说只要人够蠢那逆人工智能可能会实现,但是相对的,人其实不会那么蠢。实现“够蠢”这个前提条件也并非易事。

悲观看法 听这段

小李老师对于人工智能这件事是持悲观看法的,甚至认为人类都无法搞出新的算法用来实现人工智能。当然这只是一种观点,相信也会有很多人对人工智能持乐观观点的。

智能推荐 听这段

现在 YouTube 等视频、音乐、咨询等网站上的推荐功能已经非常智能了,而因为存在这个推荐算法的逻辑,反过来又导致了这些网站上的一些内容变得标准化。

标准化 听这段

YouTube 的封面现在也是颇为标准化的,这就扼杀了多样性,因为不符合这个标准的视频难以得到更多的流量。

文明向前 听这段

小李老师的判断是基于当下能够实现的技术,而人类文明还是会不断向前进的,也许某一天就能够真正实现了人工意识也未可知。

积极的批判 听这段

在这里小李老师认为人工智能不能实现并不是说人类文明就到此不会进步了,而是认为此路不通,人类文明需要从另一条路继续前进。

下一个时代 听这段

之所以会讨论人工意识、人工智能这些问题,是因为人们觉得工业时代已经达到顶峰,人类要为迈入一个新的时代做准备了。而这一时代究竟什么样子自然是人们关注的重点。

人的意识 听这段

似乎每期节目的最后我们都会提到,人的意识是非常复杂的,也许比我们现在想象得还要复杂的多。因此人造意识想实现绝非易事。

感谢大家收听 听这段

这三期关于人造意识的 pro 节目已经正式完结,如果有朋友没有听过前两期节目可以点击链接收听。

资料来源,点击进入

结尾BGM 听这段

现在播放的音乐是游戏《底特律:变人》中的配乐《Kara Main Theme》,感谢收听本期节目,我们下期再见。

资料来源,点击进入

/

主持人


西蒙

四十二

pekingcat

节目下载 转贴

填上这个大坑!

我们从底特律变人这个游戏切入,探讨机器人获得人类意识的话题,在遥远的上一期介绍了人类意识的特别之处,那么今天就探讨最后一个问题,那么人造意识是否可能发展出“强人工智能”,拥有像我们一样的意识。

首先嘉宾认为不可能。

然后会从人类判断昏迷的人如何恢复意识切入,介绍意识与常识的关系,机器常识是现在人造意识很火热的一个领域,随后会延续到记忆、注意力、身体感觉等诸多领域,探讨人的机制与机器机制的区别。并说明为何认为强人工智能不可实现。

最后,探讨一种可能将人工智能大规模应用于社会的路径(也是现在正在发生的),并说明这种路径可能具有什么风险和问题。

一家之言,希望和大家交流讨论。

464

查看更多评论

下载 App