成本均线CYC指标详解,解密它的致命缺陷,一旦用错将会导致巨大亏损 - 知乎切换模式写文章登录/注册成本均线CYC指标详解,解密它的致命缺陷,一旦用错将会导致巨大亏损霁华说文章开始之前强烈推荐专栏|我的交易系统最经典的系列文章:1我的交易系统| 趋势研究的本质2我的交易系统| 概率游戏3我的交易系统| K线是规则的承载之量价时空分析法4我的交易系统| 什么样的个股会长期上涨5我的交易系统| 如何建立高胜率高收益率的交易策略文章内容有:1 成本均线CYC指标详解,它是怎样计算得来的?2 CYC指标的实战使用方法。3 为什么说CYC指标有致命缺陷。4 既然有致命缺陷,那怎么规避呢?趋势研究的本质 。首先需要申明的是成本均线并非是主力或者散户的持仓成本线,指标的名字是可以随意取名的。CYC指标的原始状态(修改前),如图1。图1修改后的名称:庄家成本线,如下图。千万不要被一个名字,所欺骗了,庄家13日成本线(黄色线),庄家34日成本线(紫色线)……名字想叫什么,就叫什么,也可以取名庄家介入区,所以不要被一个名字唬住了,还是要具体了解CYC指标是怎么计算得出来的。1 成本均线CYC指标详解,它是怎样计算得来的?从图1中可知,CYC的计算公式为:JJJ:=IF(DYNAINFO(8)>0.01,0.01*DYNAINFO(10)/DYNAINFO(8),DYNAINFO(3));DDD:=(DYNAINFO(5)<0.01 || DYNAINFO(6)<0.01);JJJT:=IF(DDD,1,(JJJ<(DYNAINFO(5)+0.01) && JJJ>(DYNAINFO(6)-0.01)));CYC1:IF(JJJT,0.01*EMA(AMOUNT,P1)/EMA(VOL,P1),EMA((HIGH+LOW+CLOSE)/3,P1));CYC2:IF(JJJT,0.01*EMA(AMOUNT,P2)/EMA(VOL,P2),EMA((HIGH+LOW+CLOSE)/3,P2));CYC3:IF(JJJT,0.01*EMA(AMOUNT,P3)/EMA(VOL,P3),EMA((HIGH+LOW+CLOSE)/3,P3));CYC∞:IF(JJJT,DMA(AMOUNT/(100*VOL),100*VOL/FINANCE(7)),EMA((HIGH+LOW+CLOSE)/3,120));由公式可知CYC由四条曲线组成,即:CYC1、CYC2、CYC3、CYC∞,以CYC1为例:CYC1的计算数据源包括,成交额、成交量、最高价、最低价、收盘价,然后经过复杂的多重运算得出的结果。2 CYC指标的实战使用方法。网上流传很广的一条用法:如庄家在成本均线之上吸货,则表明庄家愿意发给原持股人一定利润,以便尽快拿到筹码,这样的股票未来上涨会比较快、比较猛。前面说了,这几条成本线并非是股民、主力、庄家的持仓成本线。上面那句话说庄家在成本线之上吸货,则代表股票未来上涨会比较快、比较猛。这根本就是无稽之谈……如下图在成本均线上买入,可是却是全程下跌……操作稍有不慎,账户就会有大量亏损。3 为什么说CYC指标有致命缺陷。CYC指标成本均线,实际上就是均线系统,均线有的致命缺点它同样有。因为经过多重运算,其表象必然是具有滞后性、失真性,此“成本线”并非是真正的成本线,只是撞名而已。核心是决定股价趋势的,不是趋势的延续,而是决定趋势的因素的延续。怎么理解这句话呢?我们看第四小节。4 既然有致命缺陷,那怎么规避呢?趋势研究的本质。首先我们看一下1 根据历史数据、形态,以其惯性的延续性,推导未来趋势。这是大部分趋势研究者所采用的方法,但其准确率是非常低的,因为它忽略了核心质变因素。2 先把决定趋势的所有因素都罗列出来,再找出影响趋势的核心因素,然后再分析核心因素的衍化过程,找到衍化过程中的必然性,这个必然性可以使得对趋势预测前移,准确率更高。即决定趋势的不是趋势的延续。而是决定趋势的因素的延续。很明显CYC指标的使用属于趋势研究的第一层,其准确率必然是非常的低。编辑于 2021-01-30 11:11股票股票市场A股赚钱必修课(书籍)赞同 215 条评论分享喜欢收藏申请
科普 | 典型的知识库/链接数据/知识图谱项目 - 知乎切换模式写文章登录/注册科普 | 典型的知识库/链接数据/知识图谱项目Krasovs来源http://OpenKG.CN:科普 | 典型的知识库/链接数据/知识图谱项目从人工智能的概念被提出开始,构建大规模的知识库一直都是人工智能、自然语言理解等领域的核心任务之一。下面首先分别介绍了早期的知识库项目和以互联网为基础构建的新一代知识库项目。并单独介绍了典型的中文知识图谱项目。1. 早期的知识库项目Cyc : Cyc 是持续时间最久,影响范围较广,争议也较多的知识库项目。Cyc 是在 1984 年由 Douglas Lenat 开始创建。最初的目标是要建立人类最大的常识知识库。典型的常识知识如 ”Every tree is a plant” ,”Plants die eventually”等。Cyc 知识库主要由术语 Terms 和断言 Assertions 组成。Terms 包含概念、关系和实体的定义。Assertions 用来建立 Terms 之间的关系,这既包括事实 Fact 描述,也包含规则 Rule 的描述。最新的 Cyc 知识库已经包含有 50 万条 Terms 和 700 万条 Assertions。 Cyc 的主要特点是基于形式化的知识表示方法来刻画知识。形式化的优势是可以支持复杂的推理。但过于形式化也导致知识库的扩展性和应用的灵活性不够。Cyc 提供开放版本 OpenCyc。WordNet:WordNet 是最著名的词典知识库,主要用于词义消歧。WordNet 由普林斯顿大学认识科学实验室从1985年开始开发。WordNet 主要定义了名词、动词、形容词和副词之间的语义关系。例如名词之间的上下位关系(如:“猫科动物”是“猫”的上位词),动词之间的蕴含关系(如:“打鼾”蕴含着“睡眠”)等。WordNet3.0已经包含超过15万个词和20万个语义关系。ConceptNet:ConceptNet是常识知识库。最早源于MIT媒体实验室的Open Mind Common Sense (OMCS)项目。OMCS项目是由著名人工智能专家Marvin Minsky于1999年建议创立。ConceptNet主要依靠互联网众包、专家创建和游戏三种方法来构建。ConceptNet知识库以三元组形式的关系型知识构成。ConceptNet5版本已经包含有2800万关系描述。与Cyc相比,ConceptNet采用了非形式化、更加接近自然语言的描述,而不是像Cyc那样采用形式化的谓词逻辑。与链接数据和谷歌知识图谱相比,ConceptNet比较侧重于词与词之间的关系。从这个角度看,ConceptNet更加接近于WordNet,但是又比WordNet包含的关系类型多。此外,ConceptNet完全免费开放,并支持多种语言。2. 语义网与知识图谱互联网的发展为知识工程提供了新的机遇。在一定程度上,是互联网的出现帮助突破了传统知识工程在知识获取方面的瓶颈。从1998年Tim Berners Lee提出语义网至今,涌现出大量以互联网资源为基础的新一代知识库。这类知识库的构建方法可以分为三类:互联网众包、专家协作和互联网挖掘。Freebase: Freebase是一个开放共享的、协同构建的大规模链接数据库。Freebase是由硅谷创业公司MetaWeb于2005年启动的一个语义网项目。2010年,谷歌收购了Freebase作为其知识图谱数据来源之一。Freebase主要采用社区成员协作方式构建。其主要数据来源包括维基百科Wikipedia、世界名人数据库NNDB、开放音乐数据库MusicBrainz,以及社区用户的贡献等。Freebase基于RDF三元组模型,底层采用图数据库进行存储。Freebase的一个特点是不对顶层本体做非常严格的控制,用户可以创建和编辑类和关系的定义。2016年,谷歌宣布将Freebase的数据和API服务都迁移至Wikidata,并正式关闭了Freebase。DBPedia: DBPedia是早期的语义网项目。DBPedia意指数据库版本的Wikipedia,是从Wikipedia抽取出来的链接数据集。DBPedia采用了一个较为严格的本体,包含人、地点、音乐、电影、组织机构、物种、疾病等类定义。此外,DBPedia还与Freebase,OpenCYC、Bio2RDF等多个数据集建立了数据链接。DBPedia采用RDF语义数据模型,总共包含30亿RDF三元组。http://Schema.org:http://Schema.org是2011年起,由Bing、Google、Yahoo和Yandex等搜索引擎公司共同支持的语义网项目。http://Schema.org支持各个网站采用语义标签(Semantic Markup)的方式将语义化的链接数据嵌入到网页中。搜索引擎自动搜集和归集这些,快速的从网页中抽取语义化的数据。http://Schema.org提供了一个词汇本体用于描述这些语义标签。截止目前,这个词汇本体已经包含600多个类和900多个关系,覆盖范围包括:个人、组织机构、地点、时间、医疗、商品等。谷歌于2015年推出的定制化知识图谱支持个人和企业在其网页中增加包括企业联系方法、个人社交信息等在内的语义标签,并通过这种方式快速的汇集高质量的知识图谱数据。截止2016年,谷歌的一份统计数据显示,超过31%的网页和1200万的网站已经使用了http://Schema.org发布语义化的链接数据。其它采用了部分http://Schema.org功能的还包括微软Cortana、Yandex、Pinterest、苹果的Siri等。http://Schema.org的本质是采用互联网众包的方式生成和收集高质量的知识图谱数据。WikiData: WikiData的目标是构建一个免费开放、多语言、任何人或机器都可以编辑修改的大规模链接知识库。WikiData由维基百科于2012年启动,早期得到微软联合创始人Paul Allen、Gordon Betty Moore基金会以及Google的联合资助。WikiData继承了Wikipedia的众包协作的机制,但与Wikipedia不同,WikiData支持的是以三元组为基础的知识条目(Items)的自由编辑。一个三元组代表一个关于该条目的陈述(Statements)。例如可以给“地球”的条目增加“<地球,地表面积是,五亿平方公里>”的三元组陈述。截止2016年,WikiData已经包含超过2470多万个知识条目。BabelNet:BabelNet是类似于WordNet的多语言词典知识库。BabelNet的目标是解决WordNet在非英语语种中数据缺乏的问题。BabelNet采用的方法是将WordNet词典与Wikipedia百科集成。首先建立WordNet中的词与Wikipedia的页面标题的映射,然后利用Wikipedia中的多语言链接,再辅以机器翻译技术,来给WordNet增加多种语言的词汇。BabelNet3.7包含了271种语言,1400万同义词组,36.4万词语关系和3.8亿从Wikipedia中抽取的链接关系,总计超过19亿RDF三元组。 BabelNet集成了WordNet在词语关系上的优势和Wikipedia在多语言语料方面的优势,构建成功了目前最大规模的多语言词典知识库。NELL:NELL(Never-Ending Language Learner) 是卡内基梅隆大学开发的知识库。NELL主要采用互联网挖掘的方法从Web自动抽取三元组知识。NELL的基本理念是:给定一个初始的本体(少量类和关系的定义)和少量样本,让机器能够通过自学习的方式不断的从Web学习和抽取新的知识。目前NELL已经抽取了300多万条三元组知识。YAGO: YAGO是由德国马普研究所研制的链接数据库。YAGO主要集成了Wikipedia、WordNet和GeoNames三个来源的数据。YAGO将WordNet的词汇定义与Wikipedia的分类体系进行了融合集成,使得YAGO具有更加丰富的实体分类体系。YAGO还考虑了时间和空间知识,为很多知识条目增加了时间和空间维度的属性描述。目前,YAGO包含1.2亿条三元组知识。YAGO是IBM Watson的后端知识库之一。Microsoft ConceptGraph :ConceptGraph 是以概念层次体系为中心的知识图谱。与Freebase等知识图谱不同,ConceptGraph 以概念定义和概念之间的IsA关系为主。给定一个概念如“Microsoft”,ConceptGraph 返回一组与“微软”有IsA关系概念组,如:“Company”,“Software Company”,“Largest OS Vender”等。这被称为概念化 “Conceptualization”。ConceptGraph 可以用于短文本理解和语义消歧中。例如,给定一个短文本 “the engineer is eating the apple”,可以利用ConceptGraph来正确理解其中“apple”的含义是“吃的苹果”还是“苹果公司”。微软发布的第一个版本包含超过 540 万的概念,1255 万的实体,和 8760万的关系。ConceptGraph 主要通过从互联网和网络日志中挖掘来构建。LOD-Linked Open Data:LOD 的初衷是为了实现 Tim Berners-Lee 在 2006 年发表的有关链接数据(Linked Data)作为语义网的一种实现的设想。LOD 遵循了Tim提出的进行数据链接的四个规则,即:(1)使用URI标识万物;(2)使用HTTP URI,以便用户可以(像访问网页一样)查看事物的描述;(3)使用RDF和SPARQL标准;(4)为事物添加与其它事物的URI链接,建立数据关联。截止目前,LOD 已经有 1143 个链接数据集,其中社交媒体、政府、出版和生命科学四个领域的数据占比超过 90%。56% 的数据集对外至少与一个数据集建立了链接。被链接最多的是dbpedia的数据。比较常用的链接类型包括:foaf:knows、sioc:follows、owl:sameAs、rdfs:seeAlso、dct:spatial、skos:exactMatch等。LOD鼓励各个数据集使用公共的开放词汇和术语,但也允许使用各自的私有词汇和术语。在使用的术语中,有41%是公共的开放术语。3. 中文知识图谱资源http://OpenKG.CN:中文开放知识图谱联盟旨在通过建设开放的社区来促进中文知识图谱数据的开放与互联,促进中文知识图谱工具的标准化和技术普及。http://Zhishi.me :http://Zhishi.me是中文常识知识图谱。主要通过从开放的百科数据中抽取结构化数据,已融合了百度百科,互动百科以及维基百科中的中文数据。CN-DBPeidia:CN-DBpedia是由复旦大学知识工场实验室研发并维护的大规模通用领域结构化百科。CN-DBpedia主要从中文百科类网站(如百度百科、互动百科、中文维基百科等)的纯文本页面中提取信息,经过滤、融合、推断等操作后,最终形成高质量的结构化数据,供机器和人使用。CN-DBpedia自2015年12月份发布以来已经在问答机器人、智能玩具、智慧医疗、智慧软件等领域产生数亿次API调用量。CN-DBpedia提供全套API,并且免费开放使用。大规模商务调用,提供由IBM、华为支持的专业、稳定服务接口。cnSchema.org: http://cnSchema.org 是一个基于社区维护的开放的知识图谱 Schema 标准。cnSchema 的词汇集包括了上千种概念分类(classes)、数据类型(data types)、属性(propertities)和关系(relations)等常用概念定义,以支持知识图谱数据的通用性、复用性和流动性。结合中文的特点,我们复用、连接并扩展了http://Schema.org,Wikidata, Wikipedia 等已有的知识图谱 Schema 标准,为中文领域的开放知识图谱、聊天机器人、搜索引擎优化等提供可供参考和扩展的数据描述和接口定义标准。通过 cnSchema, 开发者也可以快速对接上百万基于 http://Schema.org 定义的网站,以及 Bot 的知识图谱数据 API。 http://OpenKG.CN中文开放知识图谱(简称http://OpenKG.CN)旨在促进中文知识图谱数据的开放与互联,促进知识图谱和语义技术的普及和广泛应用。发布于 2018-08-02 13:54知识库知识图谱赞同 44添加评论分享喜欢收藏申请
常识库与常识推理 - 知乎首发于常识推理和常识知识库切换模式写文章登录/注册常识库与常识推理谁怕平生太急常识库整理Cyc概述始于1984年,由Douglas Lenat推动,旨在收集生活中常识知识并将其编码集成到一个全面的本体知识库。该知识库中包含了320万条人类定义的断言,涉及30万个概念,15000个谓词。这些资源都采取CycL语言来进行描述,该语言采取谓词代数描述,语法上与Lisp程序设计语言类似。Cyc知识库中表示的知识一般形如“每棵树都是植物”,“植物最终都会死亡”。当提出“树是否会死亡”的问题时,推理引擎可以得到正确的结论,并回答该问题。发布版本:2009年7月发布的OpenCyc 2.0版,包含了47000个概念、306000个事实,主要是分类断言,并不包含Cyc中的复杂规则。评价:“人工智能历史上最有争议的项目”之一。该系统在深度和广度上都有待完善,且不便于初学者学习使用该系统。资料论文 详细介绍ConceptNet概述常识知识库。最早源于MIT媒体实验室的Open Mind Common Sense(OMCS)项目。OMCS项目是由著名AI专家Marvin Minsky于1999年创立。ConceptNet还有其他来源:Wiktionary、WordNet、OpenCyc、DBPedia、JMDict。以三元组形式的关系型知识构成。ConceptNet5版本已经包含有2800万关系描述。与Cyc相比,ConceptNet采用了非形式化、更加接近自然语言的描述;与链接数据和谷歌知识图谱相比,ConceptNet比较侧重于词与词之间的关系。与WordNet相比,包含的关系类型多。ConceptNet完全免费开放,并支持多种语言。以bicycle为例如下:资料论文全文 demo 论文代码 中文数据Commonsense QA基于ConceptNet开发的常识比赛举例:Q:哪个最大? A1:山, A2:人, A3:老鼠。 特点:完全基于常识,几乎不考虑上下文的阅读理解。ATOMIC概述原子因果常识图谱,包含870k条推理常识,专注于“if..then"关系的知识。比如:事件“x防御了y的攻击”,我们能够马上推理出 x的动机是“保护自己”、 x这么做的先决条件是接受了一定的防身技巧、 x可能的特点是强壮勇敢。事件的结果可能是: x会感觉生气并报警、 y可能会觉得害怕并想要逃走。ATOMIC:An Atlas of Machine Commonsense for If-Then ReasoningSocial IQA第一个面向社会情况常识推理的大规模基准,包含38000个覆盖日常情形中社交情感和智慧的多选题。(涵盖了关于在情境中描述人们的行为的各种类型的推断)比如:Q:乔丹想告诉特雷西一个秘密,所以乔丹向特雷西靠近,为什么乔丹这么做?A:为了保证别人听不到。B:乔丹喜欢特雷西。 C:乔丹想打特雷西。Social IQA:Commonsense Reasoning about Social InteractionsSQuAD该数据集包含 100k个(问题,原文,答案)三元组,原文来自于 536 篇维基百科文章,而问题和答案的构建主要是通过众包的方式,让标注人员提出最多 5 个基于文章内容的问题并提供正确答案,且答案出现在原文中。 特点: 仅需要阅读材料的上下文,不需要常识 SQuAD阅读理解模型总结Cosmos QA Cosmos QA是一个35.6K问题的大规模数据集,需要基于常识的阅读理解,被表述为多项选择题。 它着重于阅读人们日常叙事的不同线条之间的界限,询问有关事件的可能原因或影响的问题,这些事件需要推理超出上下文的确切范围。 特点:既需要上下文,同时需要常识的阅读理解数据集。Cosmos QA:Machine reading comprehension with contextual commonsense reasoningCOMET基于 ConceptNet 和 ATOMIC 自动常识知识构建模型COMET:Commonsense Transformers for Automatic Knowledge Graph ConstructionWIQA第一个大规模测试程序文本推理的大型数据集。 WIQA包含为379个段落准备的40.7k问题。为了有效的创建问题,人们为这379个段落创建了2107个影响图(IGs),描述一个扰动如何正面或负面影响另一个。 举例:事件:海洋侵蚀过程:1)风在海洋中产生波浪2)海浪冲刷到海滩上3)海浪袭击了海滩上的岩石4)岩石的微小部分折断了5)岩石变小了举例:给出一个关于海滩侵蚀的段落,暴风雨的天气会导致或多或少的侵蚀(或没有影响)吗?WIQA:A dataset for 'what if...' reasoning over procedural textPIQA物理常识推理的任务以及相应的基准数据集。 举例:Q:如何用一个瓶子将蛋清和蛋白分开?A1:...。A2:...。PIQA:Reasoning about physical commonsense in natural languageAI2在常识库的构建上,艾伦人工智能研究所(Allen Institute for AI)作出了不同寻常的贡献。关于常识推理的一点想法查阅了几天相关的资料,感觉有一句话我深为认同:我们能期待具有常识的软件能做什么?这是很难去定义的,因为它包含着许许多多的小片段,而所有的一切都很容易单独进行编程。例如,如果你躺在地上大喊“我受伤了”,常识会让我们呼叫急救服务……但有可能,苹果的Siri已经能够做到这一点。 但是,也正因为如此,机器若想真正具备认知智能,常识又是如此的重要。衷心希望前赴后继的勇士们一点一点啃下这个硬骨头。奥利给!编辑于 2020-01-16 17:39知识库知识图谱知识工程赞同 318 条评论分享喜欢收藏申请转载文章被以下专栏收录常识推理和常识知识库给机器上
CYC | Artificial Intelligence, Knowledge Representation & Expert Systems | Britannica
Search Britannica
Click here to search
Search Britannica
Click here to search
Login
Subscribe
Subscribe
Home
Games & Quizzes
History & Society
Science & Tech
Biographies
Animals & Nature
Geography & Travel
Arts & Culture
Money
Videos
On This Day
One Good Fact
Dictionary
New Articles
History & Society
Lifestyles & Social Issues
Philosophy & Religion
Politics, Law & Government
World History
Science & Tech
Health & Medicine
Science
Technology
Biographies
Browse Biographies
Animals & Nature
Birds, Reptiles & Other Vertebrates
Bugs, Mollusks & Other Invertebrates
Environment
Fossils & Geologic Time
Mammals
Plants
Geography & Travel
Geography & Travel
Arts & Culture
Entertainment & Pop Culture
Literature
Sports & Recreation
Visual Arts
Companions
Demystified
Image Galleries
Infographics
Lists
Podcasts
Spotlights
Summaries
The Forum
Top Questions
#WTFact
100 Women
Britannica Kids
Saving Earth
Space Next 50
Student Center
Home
Games & Quizzes
History & Society
Science & Tech
Biographies
Animals & Nature
Geography & Travel
Arts & Culture
Money
Videos
CYC
Table of Contents
CYC
Table of Contents
Introduction
References & Edit History
Quick Facts & Related Topics
Quizzes
Computers and Technology Quiz
Related Questions
What is artificial intelligence?
Who are the most well-known computer scientists?
Is computer science used in video games?
How do I learn computer science?
Read Next
Have Any U.S. Presidents Decided Not to Run For a Second Term?
What State Is Washington, D.C. In?
The Future of Information and Education
14 Questions About Government in the United States Answered
Influential Computer Programming Languages
Discover
Did Marie-Antoinette Really Say “Let Them Eat Cake”?
7 Surprising Uses for Mummies
How Did Alexander the Great Really Die?
Inventors and Inventions of the Industrial Revolution
8 Animals That Suck (Blood)
America’s 5 Most Notorious Cold Cases (Including One You May Have Thought Was Already Solved)
What Is the “Ides” of March?
Home
Technology
Computers
Science & Tech
CYC
computer science
Actions
Cite
verifiedCite
While every effort has been made to follow citation style rules, there may be some discrepancies.
Please refer to the appropriate style manual or other sources if you have any questions.
Select Citation Style
MLA
APA
Chicago Manual of Style
Copy Citation
Share
Share
Share to social media
URL
https://www.britannica.com/topic/CYC
Give Feedback
External Websites
Feedback
Corrections? Updates? Omissions? Let us know if you have suggestions to improve this article (requires login).
Feedback Type
Select a type (Required)
Factual Correction
Spelling/Grammar Correction
Link Correction
Additional Information
Other
Your Feedback
Submit Feedback
Thank you for your feedback
Our editors will review what you’ve submitted and determine whether to revise the article.
External Websites
AlanTuring.net - What is Artificial Intelligence? - The CYC Project
MIT Technology Review - Cycorp: The Cost of Common Sense
Cite
verifiedCite
While every effort has been made to follow citation style rules, there may be some discrepancies.
Please refer to the appropriate style manual or other sources if you have any questions.
Select Citation Style
MLA
APA
Chicago Manual of Style
Copy Citation
Share
Share
Share to social media
URL
https://www.britannica.com/topic/CYC
Feedback
External Websites
Feedback
Corrections? Updates? Omissions? Let us know if you have suggestions to improve this article (requires login).
Feedback Type
Select a type (Required)
Factual Correction
Spelling/Grammar Correction
Link Correction
Additional Information
Other
Your Feedback
Submit Feedback
Thank you for your feedback
Our editors will review what you’ve submitted and determine whether to revise the article.
External Websites
AlanTuring.net - What is Artificial Intelligence? - The CYC Project
MIT Technology Review - Cycorp: The Cost of Common Sense
Also known as: Cycorp, Inc.
Written by
B.J. Copeland
Professor of Philosophy and Director of the Turing Archive for the History of Computing, University of Canterbury, Christchurch, New Zealand. Author of Artificial Intelligence and others.
B.J. Copeland
Fact-checked by
The Editors of Encyclopaedia Britannica
Encyclopaedia Britannica's editors oversee subject areas in which they have extensive knowledge, whether from years of experience gained by working on that content or via study for an advanced degree. They write new content and verify and edit content received from contributors.
The Editors of Encyclopaedia Britannica
Article History
Table of Contents
Category:
Science & Tech
Date:
1984 - present
(Show more)
Location:
United States
(Show more)
Context:
expert system
(Show more)
See all related content →
CYC, a project begun in 1984 under the auspices of the Microelectronics and Computer Technology Corporation, a consortium of American computer, semiconductor, and electronics manufacturers, to advance work on artificial intelligence (AI). In 1995 Douglas Lenat, the CYC project director, spun off the project as Cycorp, Inc., based in Austin, Texas. The most ambitious goal of Cycorp was to build a knowledge base (KB) containing a significant percentage of the commonsense knowledge of a human being. A projected 100 million commonsense assertions, or rules, were to be coded into CYC, in an approach known as symbolic AI. The expectation was that this “critical mass” would allow the system itself to extract further rules directly from ordinary prose and eventually serve as the foundation for future generations of expert systems.
With only a fraction of its commonsense KB compiled, CYC could draw inferences that would defeat simpler systems. For example, CYC could infer “Garcia is wet” from the statement “Garcia is finishing a marathon run,” by employing its rules that running a marathon entails high exertion, that people sweat at high levels of exertion, and that when something sweats it is wet. Among the outstanding remaining problems are issues in searching and problem solving—for example, how to search the KB automatically for information that is relevant to a given problem. AI researchers call the problem of updating, searching, and otherwise manipulating a large structure of symbols in realistic amounts of time the frame problem. Some critics of symbolic AI believe that the frame problem is largely unsolvable and so maintain that the symbolic approach will never yield genuinely intelligent systems. It is possible that CYC, for example, will succumb to the frame problem long before the system achieves human levels of knowledge.
Britannica Quiz
Computers and Technology Quiz
B.J. Copeland
人工智能65年简史:从麦卡锡到Hinton,人类追求的AI究竟是什么?_腾讯新闻
人工智能65年简史:从麦卡锡到Hinton,人类追求的AI究竟是什么?
新智元报道
来源:IEEE Spectrum
编辑:LRS
【新智元导读】人工智能的发展已有65年的历史,曾经历过寒冬,也经历过辉煌。从符号主义的专家系统到现在所向披靡的神经网络,不少人担心是否寒冬会再来,也有乐观的人表示人工智能的春天也要来了。回到人工智能发展的开端,也许会有答案。
1956年夏天,一群数学家和计算机科学家占领了达特茅斯学院数学系所在大楼的顶层。在大约八周的时间里,他们想象着一个新研究领域的可能性。
约翰-麦卡锡(John McCarthy)是当时是达特茅斯大学的一名年轻教授,他在为研讨会写提案时创造了「人工智能」一词,他说研讨会将探索这样的假设:
「(人类)学习的每一个方面或智能的任何其他特征原则上都可以被精确描述,以至于可以用机器来模拟它。」
在那次传奇性的会议上,研究人员大致勾勒出了我们今天所知的人工智能。它催生了第一个研究者阵营:「符号主义者」(symbolists),基于符号主义的专家系统在20世纪80年代达到了顶峰。
会议之后的几年里,还出现了「连接主义者」(connectionists),他们在人工神经网络上苦苦钻研了几十年,直到最近才开始再创辉煌。
这两种方法长期以来被认为是相互排斥的,研究人员之间对资金的竞争造成了敌意,每一方都认为自己是在通往人工通用智能的道路上。
但回顾自那次会议以来的几十年,数次人工智能寒冬都让研究人员的希望经常破灭。在今天,即使人工智能正在彻底改变行业并可能要颠覆全球劳动力市场,许多专家仍然想知道今天的人工智能是否已经达到极限。
正如 Charles Choi 在「人工智能失败的七种方式」中所描绘的那样,当今深度学习系统的弱点正变得越来越明显,然而研究人员几乎没有危机感。他认为也许在不远的将来可能会迎来另一个人工智能冬天, 但这也可能是受启发的工程师最终将我们带入机器思维的永恒之夏的时候。
开发符号人工智能的研究人员的目的是明确地向计算机教授世界知识。他们的宗旨认为知识可以由一组规则表示,计算机程序可以使用逻辑来操纵这些知识。符号主义者的先驱如纽厄尔和赫伯特西蒙认为,如果一个符号系统有足够的结构化事实和前提,那么聚合的结果最终会产生通用的智能。
另一方面,连接主义者受到生物学的启发,致力于「人工神经网络」的研发,这种网络可以接收信息并自行理解。
一个开创性的例子是感知机,这是一种由康奈尔大学心理学家弗兰克罗森布拉特在美国海军资助下建造的实验机器。它有 400 个光传感器共同充当视网膜,向大约 1,000 个神经元提供信息,这些神经元能够进行处理并产生单个输出。1958 年,《纽约时报》的一篇文章援引罗森布拉特的话说,“机器将成为第一个像人脑一样思考的设备”。
肆无忌惮的乐观鼓励美国和英国的政府机构将资金投入研究。1967 年,麻省理工学院教授、人工智能之父马文·明斯基甚至写道:“在一代人之内……创造‘人工智能’的问题将得到实质性解决。”
然而不久之后,政府资金开始枯竭,原因是人工智能研究除了炒作外没有任何实质性的进展没有辜负它自己的炒作。1970 年代见证了第一个人工智能冬天。
然而,真正的人工智能研究者没有放弃。
到 1980 年代初,符号主义 AI 的研究人员带来了鼎盛时期,他们因特定学科(如法律或医学)知识的专家系统而获得资助。投资者希望这些系统能很快找到商业应用。
最著名的符号人工智能项目始于 1984 年,当时研究人员道格拉斯·莱纳特 (Douglas Lenat) 开始着手一项名为 Cyc 的项目,该项目旨在将常识编码到机器中。
直到今天,Lenat 和他的团队还在继续向 Cyc 的本体添加术语(事实和概念),并通过规则解释它们之间的关系。到 2017 年,该团队有 150 万个条款和 2450 万条规则。然而,Cyc 离实现通用智能还差得很远。
20世纪80年代末,商业的寒风带来了第二个人工智能冬天。专家系统市场的全面崩溃是因为它们需要专门的硬件,无法与越来越通用的台式计算机竞争。到了20世纪90年代,研究符号人工智能或神经网络在学术上已不再流行,因为这两种策略似乎都失败了。
但是,取代专家系统的廉价计算机对连接主义者来说是一个福音,他们突然获得了足够的计算机能力来运行具有多层人工神经元的神经网络。这类系统被称为深度神经网络,它们实现的方法被称为深度学习。
多伦多大学的Geoffrey Hinton 实现了一种叫做反向传播的原理来让神经网络从他们的错误中学习。
Hinton 的一位博士后 Yann LeCun 于 1988 年进入 AT&T 贝尔实验室,在那里他和一位名叫 Yoshua Bengio 的博士后使用神经网络进行光学字符识别;美国银行很快就采用了这种技术来处理支票。
Hinton、LeCun 和 Bengio 于 2019 年获得图灵奖。
但是神经网络的拥护者仍然面临一个大问题:他们的理论框架逐渐拥有越来越多的计算能力,但是世界上没有足够的数据来供他们训练模型,至少对于大多数应用程序来说是这样,人工智能的春天还没有到来。
但在过去的二十年里,一切都变了。
尤其是随着互联网蓬勃发展,突然间,数据无处不在。
数码相机和智能手机在互联网上发布图像,维基百科和 Reddit 等网站充满了可免费访问的数字文本,YouTube 有大量视频。足够的数据也是训练神经网络的基础。
另一个重大发展来自游戏行业。Nvidia 等公司开发了称为图形处理单元 (GPU) 的芯片,用于在视频游戏中渲染图像所需的繁重处理。游戏开发人员使用 GPU 进行复杂的着色和几何变换。需要强大计算能力的计算机科学家意识到,他们可以使用 GPU 执行其他任务,例如训练神经网络。
Nvidia 也注意到了这一趋势并创建了 CUDA,CUDA 可以让研究人员能使用 GPU 进行通用数据处理。
2012年,Hinton 实验室的一名学生名叫 Alex Krizhevsky,他使用 CUDA 编写了一份神经网络的代码,AlexNet 模型的效果惊艳了整个学术界。
Alex 开发这个模型的目的是 ImageNet 竞赛,ImageNet提供数据让 AI 研究人员构建计算机视觉系统,该系统可以将超过 100 万张图像分为 1,000 个类别的对象。
虽然 Krizhevsky 的 AlexNet 并不是第一个用于图像识别的神经网络,但它在 2012 年的比赛中的表现引起了全世界的关注。AlexNet 的错误率为 15%,而第二名的错误率高达 26%。神经网络的胜利归功于 GPU 的能力和包含 650,000 个神经元的深层结构。
在第二年的 ImageNet 比赛中,几乎每个人都使用了神经网络。到 2017 年,许多参赛者的错误率已降至 5%,随后组织者结束了比赛。
深度学习这次开始彻底起飞了。
凭借 GPU 的计算能力和大量用于训练深度学习系统的数字数据,自动驾驶汽车可以在道路上行驶,语音助手可以识别用户的语音,网络浏览器可以在数十种语言之间进行翻译。
人工智能还在一些以前被认为是机器无法战胜的游戏中击败了人类冠军,包括棋盘游戏围棋和策略游戏星际争霸 II。
目前人工智能的发展已经惠及各行各业,能够为每个应用场景都提供了识别模式和做出复杂决策的新方法。
但是深度学习领域不断扩大的胜利依赖于增加神经网络的层数并增加专门用于训练它们的 GPU 时间。
人工智能研究公司 OpenAI 的一项分析表明,在 2012 年之前,训练最大的人工智能系统所需的计算能力每两年翻一番,之后每 3.4 个月翻一番。
正如 Neil C. Thompson 和他的同事在 Deep Learning's Diminishing Returns 中所写的那样,许多研究人员担心人工智能的计算需求正处于不可持续的轨道上,并且可能破坏地球的能量循环,研究人员需要打破构建这些系统的既定方法。
虽然看起来似乎神经网络阵营已经彻底击败了符号主义者,但事实上,这场战斗的结果并不是那么简单。
例如 OpenAI 的机器人手因为操纵和求解魔方而成为头条新闻,该机器人同时使用神经网络和符号人工智能。它是许多新的神经符号(neuo-symbolic)系统之一,使用神经网络进行感知,使用符号人工智能进行推理,这是一种混合方法,可以提高效率和解释性。
尽管深度学习系统往往是黑匣子,以不透明和神秘的方式进行推理,但神经符号系统使用户能够深入了解并了解人工智能是如何得出结论的。美国陆军特别警惕依赖黑匣子系统,因此陆军研究人员正在研究各种混合方法来驱动他们的机器人和自动驾驶汽车。
目前来说深度学习系统是为特定任务而构建的,不能将它们的能力从一项任务推广到另一项任务。更重要的是,学习一项新任务通常需要人工智能清除它所知道的关于如何解决其先前任务的一切,这个难题称为灾难性遗忘。
在谷歌位于伦敦的人工智能实验室 DeepMind,著名的机器人专家 Raia Hadsell 正在使用各种复杂的技术解决这个问题。其他研究人员正在研究新型元学习,希望创建 AI 系统,学习如何学习,然后将该技能应用于任何领域或任务。
所有这些策略都可能有助于研究人员实现他们最高的目标:用人类观察孩子发展的那种流体智能来构建人工智能。
幼儿不需要大量数据就可以得出结论,他们做的只是观察世界,创建一个关于它如何运作的心智模型,采取行动,并使用他们的行动结果来调整该心智模型。他们迭代直到他们理解。这个过程非常高效和有效,甚至远远超出了当今最先进的人工智能的能力。
尽管目前研究 AI 的投入资金达到了历史最高水平,但几乎没有证据表明我们的未来会失败。世界各地的公司都在采用人工智能系统,因为他们看到他们的底线立即得到改善,而且他们永远不会回头。
研究人员是否会找到适应深度学习的方法以使其更加灵活和强大,或者设计出这65年探索中还没有发现的新方法,让机器变得更像人类。
参考资料:
https://spectrum.ieee.org/history-of-ai
1984 年,大百科全书(Cyc )项目启动。Cyc 项目由当时的美国微电子... - 雪球首页行情行情中心筛选器新股上市买什么交易A股交易基金交易私募中心下载App扫一扫,下载登录/注册人工智能ETF515980()发布于2022-09-16 13:31来自雪球关注来源:雪球App,作者: 人工智能ETF515980,(https://xueqiu.com/4986368599/230883570)【AI知识库】大百科全书(Cyc )项目 1984 年,大百科全书(Cyc )项目启动。Cyc 项目由当时的美国微电子与计算机技术公司启动,它试图将人类拥有的所有一般性知识都输入计算机,建立一个巨型数据库,并在此基础上实现知识推理,它的目标是让人工智能的应用能够以类似人类推理的方式工作,成为人工智能领域的一个全新研发方向。 $上证指数(SH000001)$ $中国软件(SH600536)$ $安恒信息(SH688023)$
Cyc: toward programs with common sense | Communications of the ACM
skip to main content
Advanced Search
Browse
About
Sign in
Register
Advanced SearchJournalsMagazinesProceedingsBooksSIGsConferencesPeopleMore
Search ACM Digital LibrarySearchSearch
Advanced Search
Communications of the ACMMagazine HomeOnline First Latest Issue
ArchiveAuthorsAboutCACM AffiliationsACM Award WinnersMore
HomeMagazinesCommunications of the ACMVol. 33, No. 8Cyc: toward programs with common sense
article Free Access
Share on
Cyc: toward programs with common sense Authors: Douglas B. Lenat Microelectronics and Computer Technology Corp., Austin, TX Microelectronics and Computer Technology Corp., Austin, TXView Profile , R. V. Guha Microelectronics and Computer Technology Corp., Austin, TX Microelectronics and Computer Technology Corp., Austin, TXView Profile , Karen Pittman Microelectronics and Computer Technology Corp., Austin, TX Microelectronics and Computer Technology Corp., Austin, TXView Profile , Dexter Pratt Microelectronics and Computer Technology Corp., Austin, TX Microelectronics and Computer Technology Corp., Austin, TXView Profile , Mary Shepherd Microelectronics and Computer Technology Corp., Austin, TX Microelectronics and Computer Technology Corp., Austin, TXView Profile Authors Info & Claims Communications of the ACMVolume 33Issue 8Aug. 1990pp 30–49https://doi.org/10.1145/79173.79176Published:01 August 1990Publication History
295citation2,242DownloadsMetricsTotal Citations295Total Downloads2,242Last 12 Months181Last 6 weeks29
Get Citation AlertsNew Citation Alert added!This alert has been successfully added and will be sent to:You will be notified whenever a record that you have chosen has been cited.To manage your alert preferences, click on the button below.Manage my AlertsNew Citation Alert!Please log in to your account
Save to BinderSave to BinderCreate a New BinderNameCancelCreateExport CitationPublisher SiteeReaderPDFCommunications of the ACMVolume 33, Issue 8
PreviousArticleNextArticle
Skip Abstract SectionAbstractCyc is a bold attempt to assemble a massive knowledge base (on the order of 108 axioms) spanning human consensus knowledge. This article examines the need for such an undertaking and reviews the authos' efforts over the past five years to begin its construction. The methodology and history of the project are briefly discussed, followed by a more developed treatment of the current state of the representation language used (epistemological level), techniques for efficient inferencing and default reasoning (heuristic level), and the content and organization of the knowledge base.
References
1 Allen, j. Maintaining knowledge about temporal intervals. In Readings In Knowledge Representation, H. Levesque and R. Brachman, Eds., Morgan lxauimann, 1.os /'~LLO~, k.,/'~, /~oo. Google ScholarDigital Library2 Barnett, J., Knight, K., Mani, I. and Rich, E. Knowledge and natural language processing. Tech. Rep. AGT-NL-!04-90, MCG, March 1990 (Also appears in this issue of CACM). Google ScholarDigital Library3 Bobrow, D.G. and Winograd, T An overview ofkrl, a knowledge representation language. In Readings In Knowledge Representat/0n, H. Levesque and R. Brachman, Eds., Morgan Kaufmann, Los Altos, CA, 1986.Google Scholar4 Bledsoe, W:W. Non-resolution meorem . proving. In Readings In Artificial Intelligence, B.L. Webber and NJ. Nilsson, Eds., Morgan Kaufmann, l~o.q Alto.% CA, 1981.Google Scholar5 Brachman, R.J., Fikes, R.E. and Levesque, H.J. Krypton: A functional approach to knowledge representation. In Readings In Knowledge Representation, H. Levesque and R. Brachman, Eds., Morgan Kaufmann, Los Altos, CA, 1986.Google Scholar6 CorbeU,.j.-G. The VisuaIDicdona~7. Facts on File, New York, 1987.Google Scholar7 Davis, R. and Buchanan, B.G. Meta-level knowledge: Ove_._rview and applications. In Readings In Knowledge Representat/on, H. Levesque and R. Brachman, Eds., Morgan Kaufmann, Los Altos, CA, 1986.Google Scholar8 Derthick, M. An epistemological level interface for cyc. Tech. Rep. ACT-CYC-084-90, MGG, February 1990.Google Scholar9 Doyle, j. A truth maintenance system. In Readings In Nonmonotonic Reasoning, M. Oinsberg, Ed., Morgan Kaufmann, Los Altos, CA, !987: Google ScholarDigital Library10 Forbus, K. Qualitative physics: Past, present and futu re. In Exploring Artificial Intelligence, H. Shrobe, Ed., Morgan Kaufmann, Los Altos, CA 1988. Google ScholarDigital Library11 Ginsberg, M. Multivalued logic. In Readings In Nonmonotonic Reasoning, M. Ginsberg, Ed., Morgan Kaufmann, Los Altos, CA, 1987. Google ScholarDigital Library12 Ouha, R.V. The representation of defaults in cyc. Tech. Rep. ACT-CYC-083-90, MGG, February 1990.Google Scholar13 Guha, R.V. and Lenat, D.B. Cycl: The cyc representation language, part 2. Tech. Rep. AGT-GYC-452-89, MGC, December 1989.Google Scholar14 Guha, R.V. and Lenat, D.B. Cych The cyc representation language, part 3. Tech. Rep. ACT-CYC-454-89, MCC, December 1989.Google Scholar15 Ouha, R.V. and Lenat, D.B. The world according to cyc, part 2: Agents and institutions. Tech. Rep. ACT-CYC-453-89, MGC, December 1989.Google Scholar16 Guha, R.V. and Lenat, D.B. Gycl: The cyc representation language, part 4. Tech. Rep., MCC, April 1990.Google Scholar17 Hayes.P.J., naive physics 1: Ontoogy for liquids. In Formal Theories of the Common Sense World, J.R. Hobbs and R.G. Moore, Eds., Ablex, Norwood, N.J., 1985.Google Scholar18 Hayes, P.J. Some problems and non-problems in representation theory. In Readings In Knowledge Representation, H. Levesque and R. Brachman, Eds., Morgan Kaufmann, Los Altos, CA, 1986.Google Scholar19 Lenat, D.B. and Guha, R.V. Building Large knowledge Bases. Addison-weslcy, Readings Mass., 1990.Google Scholar20 McCarthy, J. First order theories of individual concepts and propositions. In Readings In Knowledge Representation, H. Levesque and R. Brachman, Eds., Morgan Kaufmann, Los Altos, CA, 1986.Google Scholar21 McCarthy, J. Programs with common sense. In Readings In Knowledge Representation, H. Levesque and R. Brachman, Eds., Morgan Kaufmann, Los altos,CA,1986.Google Scholar22 McCarthy, J. Applications of circumscription to formalizing common sense knowledge. In Readings In Nonmonotonic Reasoning) M. Ginsberg, Ed., Morgan Kaufmann, Los Altos, CA, 1987. Google ScholarDigital Library23 McCarthy, J. and Hayes, P.J. Some philosophical problems from the standpoint of artificial intelligence. In Readings In Nonmonotonic Reasonin~ M. Ginsberg, Ed., Morgan Kaufmann, Los Altos,CA,1987. Google ScholarDigital Library24 McDermott, D. A temporal logic for reasoning about processes and plans. Cognitive Science, 6 (1982), 101-155.Google ScholarCross Ref25 McDermott, D. and Doyle, J. Nonmonotonic logic. In Readings In Nonmonotonic Reasoning M. Ginsberg, Ed., Morgan Kaufmann, Los Altos, CA, 1987. Google ScholarDigital Library26 Moore, R.C. The role of logic in knowledge representation and commonsense reasoning. In Readings In knowledge Representation, H.Levesque and R. Brachman, Eds., Morgan Kaufmann, Los Altos, CA, 1986.Google Scholar27 Pearl, l. and Korf, R. Search techniques. Annual Review of Comput. Sci., (1987).Google ScholarCross Ref28 Poundstone, W. Labyrinths of Reason. Doubleday, 1988.Google Scholar29 Quine, W.V. Natural kinds. In Ontological Relativity and other essays. Columbia University Press, New York, 1969.Google ScholarCross Ref30 Soloway, E., Bacham, j. andjensen, K. Assessing the maintainability of xcon-in-rime: Coping with the problem of a very large rule-base. In Proceedings of AAAI-87 (1987 pp. 824-829.Google Scholar31 Warren, D.H.D. An abstract prolog instruction set. Tech. Rep. 309, SRI, Artificial Intelligence Center, Computer Science and Technology Genter, October 1983.Google Scholar32 Weyhrauch, R.W. Prolegmena to a theory of mechanized formal reasoning. In Readings In knowledge representation, H.Levesque and R. Brachman, Eds., Morgan Kaufmann, Los Altos, CA, 1986.Google Scholar33 Williams, B. Minima: A symbolic approach to qualitative algebraic reasoning. In Proceedings of AAAI-88, 1988.Google Scholar
Cited ByView all
Index Terms
Cyc: toward programs with common senseComputing methodologiesArtificial intelligenceKnowledge representation and reasoningSemantic networksSearch methodologiesHeuristic function construction
Recommendations
CYC: Using common sense knowledge to overcome brittleness and knowledge acquistion bottlenecksRead MoreCommon sense investing: bridging the gap between expert and noviceCHI EA '04: CHI '04 Extended Abstracts on Human Factors in Computing Systems
In this paper, we describe Common Sense Investing (CSI), an interactive investment tool that uses a knowledge base of common sense statements in conjunction with domain knowledge to assist personal investors with their financial decisions, primarily ...Read MoreCYC: Using Common Sense Knowledge to Overcome Brittleness and Knowledge Acquisition Bottlenecks
MCC's CYC project is the building, over the coming decade, of a large knowledge base (or KB) of real world facts and heuristics and—as a part of the KB itself—methods for efficiently reasoning over the KB. As the title of this article suggests, our ...Read More
Reviews
Reviewer: Fred J. Damerau
In early AI research, attention focused on general problem solving and search methods. When it became clear that intelligent machine behavior was unlikely to be achieved if every action had to be derived from first principles, the field moved toward a “knowledge is power” paradigm, exemplified by most of the work on expert systems and their deep but narrow knowledge bases (KBs). These systems are not suitable for tasks such as text understanding, which require access to considerable commonsense knowledge of the world. The Cyc project at MCC appears to be the first serious attempt to actually build a broad KB (although the issues have been explored before, by the Common Sense Summer project at SRI, for example).
The authors give an overview of the Cyc project, its representation language, inferencing system, and classification system. Discussion of the special inferencing rules used provides an introduction to the detailed problems that must be faced in this kind of endeavor. Similarly, discussion of the Cyc ontology illustrates the difficulty of classifying experience, particularly notions of time, persistence, and causality. The authors hope that manual update of the Cyc KB can be replaced in the next few years by feeding text through an associated natural language understanding program, updating Cyc directly from this program's output.
This well-written, balanced paper, most of which is accessible to anyone, describes an interesting and potentially important project. Even if Cyc does not achieve its ambitious goals, the attempt alone should greatly benefit the AI community.
Access critical reviews of Computing literature hereBecome a reviewer for Computing Reviews.
Comments
Please enable JavaScript to view thecomments powered by Disqus.
Login optionsCheck if you have access through your login credentials or your institution to get full access on this article.Sign inFull AccessGet this Article
InformationContributorsPublished in
Communications of the ACM Volume 33, Issue 8Aug. 1990129 pagesISSN:0001-0782EISSN:1557-7317DOI:10.1145/79173Editor: Peter J. DenningNASA Ames Research Center, Moffett Field, CAIssue’s Table of Contents
Copyright © 1990 ACMPermission to make digital or hard copies of all or part of this work for personal or classroom use is granted without fee provided that copies are not made or distributed for profit or commercial advantage and that copies bear this notice and the full citation on the first page. Copyrights for components of this work owned by others than ACM must be honored. Abstracting with credit is permitted. To copy otherwise, or republish, to post on servers or to redistribute to lists, requires prior specific permission and/or a fee. Request permissions from [email protected]SponsorsIn-CooperationPublisherAssociation for Computing MachineryNew York, NY, United States
Publication History
Published: 1 August 1990
PermissionsRequest permissions about this article.Request Permissions
Check for updates
QualifiersarticleConferenceFunding Sources
Other MetricsView Article MetricsBibliometricsCitations295Article Metrics295Total CitationsView Citations2,242Total DownloadsDownloads (Last 12 months)181Downloads (Last 6 weeks)29Other MetricsView Author MetricsCited ByView allPDF FormatView or Download as a PDF file.PDFeReaderView online with eReader.eReaderDigital EditionView this article in digital edition.View Digital EditionFiguresOtherShare this Publication linkhttps://dl.acm.org/doi/10.1145/79173.79176Copy LinkShare on Social Media
Share on
0ReferencesClose Figure ViewerBrowse AllReturnChange zoom levelCaption
View Issue’s Table of Contents
Export CitationsSelect Citation formatBibTeXEndNoteACM RefPlease download or close your previous search result export first before starting a new bulk export.Preview is not available.By clicking download,a status dialog will open to start the export process. The process may takea few minutes but once it finishes a file will be downloadable from your browser. You may continue to browse the DL while the export process is in progress.DownloadDownload citationCopy citation
Footer
Categories
Journals
Magazines
Books
Proceedings
SIGs
Conferences
Collections
People
About
About ACM Digital Library
ACM Digital Library Board
Subscription Information
Author Guidelines
Using ACM Digital Library
All Holdings within the ACM Digital Library
ACM Computing Classification System
Digital Library Accessibility
Join
Join ACM
Join SIGs
Subscribe to Publications
Institutions and Libraries
Connect
Contact
Feedback
Bug Report
The ACM Digital Library is published by the Association for Computing Machinery. Copyright © 2024 ACM, Inc.
Terms of Usage
Privacy Policy
Code of Ethics
Your Search Results Download Request We are preparing your search results for download ...We will inform you here when the file is ready.Download now!Your Search Results Download RequestYour file of search results citations is now ready.Download now!Your Search Results Download RequestYour search export query has expired. Please try again.
华文百科Cyc
有关其他用途,请参见CYC(歧义) 。
顺时针:CYC知识库,推理引擎,可操作的输出,智能数据选择的徽标
原始作者
道格拉斯·莱纳特(Douglas Lenat)
开发人员
Cycorp,Inc。
初始发行
1984
稳定版本
2017年11月6日 / 27日
写在
LISP , CYCL , SUBL
类型
本体,知识基础和知识表示语言和推理引擎
网站
www.cyc.com
CYC (发音SYKE )是一个长期的人工智能项目,旨在组装一个综合本体论和知识基础,涵盖有关世界如何运作的基本概念和规则。为了捕捉常识知识,CYC专注于其他AI平台可能认为是理所当然的隐性知识。这与人们可能在互联网上某个地方发现的事实形成鲜明对比或通过搜索引擎或Wikipedia检索。 CYC使语义推理器能够执行类似人类的推理,并且在面对新型情况时会变得不那么“脆弱”。
道格拉斯·莱纳特(Douglas Lenat)于1984年7月在MCC开始了该项目,他是1984年至1994年的首席科学家,然后自1995年1月以来一直由Cycorp Company积极发展,他是首席执行官。
概述
这种对这种大规模象征人工智能项目的需求诞生于1980年代初期。早期的AI研究人员在过去的25年中通过AI计划获得了丰富的经验,这些计划将产生令人鼓舞的早期结果,但未能“扩展” - 超越'训练集'以解决更广泛的案件。道格拉斯·莱纳特(Douglas Lenat)和艾伦·凯(Alan Kay)宣布了这一需求,他们于1983年在斯坦福大学组织了一次会议,以解决这个问题。 Lenat,Kay及其同事(包括Marvin Minsky , Allen Newell , Edward Feigenbaum和John McCarthy )的底板计算表明,这一努力将需要1,000至3,000人的努力。这次会议的一年内的活动使该规模的努力得以进行。
该项目始于1984年7月,是400人微电子和计算机技术公司(MCC)的旗舰项目,这是一个由两打大型美国公司创立的研究联盟,以应对当时不祥的日本人在AI中的不祥日本努力,称为“第五代”项目。美国政府通过通过1984年的《国家合作研究法》对第五代威胁做出了反应,该法案首次使美国公司在长期高风险的高薪研究研究中“碰撞”, MCC和Sematech Spring升至利用那十年的机会。 MCC的第一任总裁兼首席执行官是前美国国家安全局局长兼中央情报局副主任鲍比·雷·伊曼(Bobby Ray Inman) 。
CYC项目的目的是以机器可用的形式编译成构成人类常识的数百万个知识。这需要在此过程中,(1)开发一种充分表现力的表示语言, cycl ,(2)开发一个跨越所有人类概念的本体论,直至某些适当的细节,(3)在该本体论框架上建立知识基础,包括该本体论框架,包括关于这些概念的所有知识都达到了一些适当的细节水平,(4)比当时的专家系统中使用的推理引擎的速度更快,以便能够推断人类能够有能力的相同类型和结论的深度鉴于他们对世界的了解。
更详细地:
CYCL表示语言最初是RLL的扩展(所谓的代表语言语言,由Lenat于1979 - 1980年开发,由Lenat及其研究生Russell Greiner在Stanford University开发),但在启动CYC Project的几年之内很明显,即使代表典型的新闻故事,小说或广告,也需要超越一阶逻辑的表达力,即二阶谓词计算(“雨水和水之间的关系是什么?”)更高级别的逻辑顺序包括模态逻辑,反射(使系统能够在迄今为止的进度,解决其工作问题的问题)和上下文逻辑(使系统能够明确推理其各种前提的上下文结论可能会得出),非单调逻辑和限制。到1989年,CYCL已扩展到高阶逻辑(HOL)的表达能力。TripLestore表示(类似于1970年代的框架和插槽表示语言,RLL从中弹出)今天在AI中很普遍。引用一些强调或打破这种类型的表示的例子可能是有用的,典型的示例迫使CYC项目从三倍的表示形式转变为1984 - 1989年期间更具表现力的示例。 (“弗雷德不拥有狗”),嵌套的量词(“每个美国人都有母亲”的意思是对所有X造成X。所有的X ...),诸如“美国相信德国希望北约避免追求的模态”等嵌套模态……甚至在三分之一的arity关系中代表高于2的Arity的关系甚至是尴尬的,例如“洛杉矶沿US101沿着圣地亚哥和旧金山之间。”
在该项目的前十年,到1994年,CYC的本体学成本增加到约100,000个任期,截至2017年,约有约1,500,000个任期。该本体论包括:
416,000种集合(类型,类型,自然种类,其中包括鱼类和诸如钓鱼等动作类型的类型)
代表超过一百万的人
42,500个谓词(关系,属性,字段,属性,函数),
大约一百万个众所周知的实体,例如theunitedstatesofamerica,barackobama,theSigning usdeclarationOftipentence,等等。
在CYC本体论中,任意大量的其他术语也隐含地存在,从某种意义上说,诸如calendaryearfn等术语典型功能(当给出了2016年参数时,它表示2016年日历年)(当给定参数时)法国表示法国政府),仪表(当给出了2016年的论点时,它表示2.016公里的距离),以及这种功能典型的术语的嵌套和组成。
涉及那些本体论术语的一般常识规则和断言的CYC知识基础主要是由手工公理写作创建的。它在1994年增长到约100万,截至2017年,它约为2450万,并且在建设中的努力已经超过1000人。重要的是要了解,只要知识基础的演绎关闭,CYC本体论工程师努力使这些数字尽可能小,不要使它们膨胀。假设CYC被告知大约有十亿个人,动物等。然后可以将其告知10 18个事实:“米奇老鼠与Moose/Abraham Lincoln/Jennifer Lopez>的Bullwinkle不是同一个人。”。但是,不如说,人们可以告诉CYC 10,000 Linnaean分类规则,然后只有10 8条规则“ No Mouse是Moose”。更紧凑的是,CYC可以得到只有10,000个Linnaean分类法则,只有一个形式的一个规则“对于任何两个Linnaean分类群,如果都不明确地知道是对方的supertaxon,那么它们是脱节的”。这10,001个断言与早期提到的10 18个事实具有相同的演绎封闭性。
CYC推理引擎设计将认识论问题(CYC KB中的内容)与启发式问题(CYC如何有效地推断出数百万个公理的海洋中)。为了做前者,Cycl语言和众所周知的逻辑推断可能就足够了。对于后者,CYC使用了代理社区体系结构,其中专门的推理模块,每个模块都有自己的数据结构和算法,如果他们能有效地在任何当前开放的子问题上取得进展,则“举起了手”。到1994年,有20个这样的启发式级别(HL)模块;截至2017年,有超过1,050 hl模块。
这些HL模块中的一些非常通用,例如一个模块,该模块缓存了CYC本体论中所有常用及时关系的Kleene Star (及时闭合)。
有些是特定领域的,例如化学方程式平均水平。这些可以并且通常是(指向)某些外部可用程序,网络服务或在线数据库的“逃脱”,例如一个模块快速“计算”城市当前人口的模块,通过知道在哪里/如何查找。
CYCL具有公开释放的规范,Lenat和Guha的教科书中描述了数十个HL模块,但是实际的CYC推理引擎代码和1000多个HL模块的完整列表是Cycorp Properiperare。
名称“ CYC”(来自“百科全书”,发音为[SAɪK] ,例如“ syke ”)是Cycorp拥有的注册商标。获得CYC的是通过付费许可证,但是善意的AI研究小组获得了仅研究的无成本许可(参见ResearchCyc );截至2017年,全球有600多个这样的团体拥有这些许可证。
CYC知识库中代表的典型知识是“每棵树都是植物”和“植物最终死亡”。当被问及树木是否死亡时,推理引擎可以得出明显的结论并正确回答问题。
默认情况下,CYC的大多数知识(在数学之外)仅是正确的。例如,CYC知道,作为默认的父母爱他们的孩子,当您开心时,您可以微笑,迈出第一步是一项巨大的成就,当您所爱的人有一个很大的成就使您快乐,只有成年人才有孩子。当被问及图片是否为“看着女儿迈出她的第一步的人”字幕时,CYC可以从逻辑上推断出答案是肯定的,并且通过使用这五个零件逐步介绍逻辑上的逻辑论证来“表现出其作品”从知识基础上获得知识。这些是在语言CYCL中提出的,该语言基于谓词演算,具有类似于LISP编程语言的语法。
2008年,CYC资源被映射到许多Wikipedia文章中。 CYC目前已连接到Wikidata 。未来的计划可以将CYC连接到DBPEDIA和FREEBASE 。
当前的大部分工作CYC继续是知识工程,用手代表世界的事实,并在该知识上实施有效的推理机制。然而,越来越多的Cycorp的工作涉及使CYC系统具有自然语言与最终用户交流的能力,并通过机器学习和自然语言理解来协助持续的知识形成过程。 Cycorp的另一项巨大努力是建立一套由CYC供电的本体论工程工具,以将标准降低到入口,以供个人贡献,编辑,浏览和查询CYC。
像许多公司一样,Cycorp有野心使用CYC的自然语言处理来解析整个互联网以提取结构化数据。与其他所有人不同,它可以呼吁CYC系统本身充当感应偏见,并作为歧义,隐喻和省略号的裁决。关于CYC性能的系统基准研究很少(如果有的话)。
知识库
CYC中的概念名称是CYCL术语或常数。常数以可选开头#$并且对病例敏感。有常数:
单个项目称为个人,例如#$BillClinton或者#$France.
收藏品,例如#$Tree-ThePlant(包含所有树)或#$EquivalenceRelation(包含所有等价关系)。集合的成员称为该集合的实例。
功能,从给定的术语产生新术语。例如,#$FruitFn当提供描述植物类型(或集合)的论点时,将返回其水果的收集。按照惯例,函数常数从上案字母开始,并以字符串结尾Fn.
真理功能,可以应用于一个或多个其他概念并返回真或错误。例如,#$siblings如果两个参数是兄弟姐妹,则是兄弟姐妹的关系。按照惯例,真实函数常数从下案字母开始。真相功能可以分解为逻辑连接剂(例如#$and,#$or,#$not,#$implies),量词(#$forAll,#$thereExists,等)和谓词。
两个重要的二元谓词是#$isa和#$genls。第一个描述一个项目是某个集合的实例,第二个集合是另一个集合的子集合。关于概念的事实是使用某些CYCL句子所主张的。谓词是在括号中写的:
(#$isa #$BillClinton #$UnitedStatesPresident)
“比尔·克林顿(Bill Clinton)属于美国总统的收藏。”
(#$genls #$Tree-ThePlant #$Plant)
“所有树木都是植物。”
(#$capitalCity #$France #$Paris)
“巴黎是法国的首都。”
句子也可以包含变量,字符串从?。这些句子称为“规则”。关于#$isa谓词读:
(#$implies
(#$and
(#$isa ?OBJ ?SUBSET)
(#$genls ?SUBSET ?SUPERSET))
(#$isa ?OBJ ?SUPERSET))
“如果OBJ是集合的实例SUBSET和SUBSET是SUPERSET, 然后OBJ是集合的实例SUPERSET“。另一个典型的例子是
(#$relationAllExists #$biologicalMother #$ChordataPhylum #$FemaleAnimal)
这意味着对于集合的每个实例#$ChordataPhylum(即每个核心),存在着一只雌动物(实例#$FemaleAnimal),这是它的母亲(由谓词描述#$biologicalMother).
知识基础分为微饰(MT),概念的集合和事实,通常与一个特定的知识领域有关。与整个知识基础不同,每个微孔都必须摆脱单调矛盾。每个微神经是CYC本体论中的一流对象。它的名称是常规常数;微孔式常数包含字符串Mt按照惯例。一个例子是#$MathMt,包含数学知识的小额拓扑。微饰可以彼此继承并以层次结构组织:一种专业化#$MathMt是#$GeometryGMt,关于几何形状的微司。
推理引擎
推理引擎是一种计算机程序,该程序试图从知识库中得出答案。 CYC推理引擎执行一般的逻辑扣除额(包括Modus Ponens , Modus Tollens ,通用定量和存在定量)。它还执行归纳推理,统计机器学习和符号机器学习以及绑架推理(但当然是很少的,并且将现有知识库用作过滤器和指南)。
发行
Opencyc
OpencyC的第一个版本于2002年春季发布,仅包含6,000个概念和60,000个事实。知识库是根据Apache许可证发布的。 Cycorp表示打算在并行的,不受限制的许可下释放OpencyC,以满足用户的需求。 CYCL和SUBL解释器(允许用户可以浏览和编辑数据库以及绘制推论的程序)是免费发布的,但仅作为二进制文件,没有源代码。它可用于Linux和Microsoft Windows 。开源Texai项目发布了从OpenCyc提取的RDF兼容内容。 2012年6月发布了一个版本的OpenCyc,4.0。Opencyc 4.0当时包括大部分CYC本体论,其中包含数十万个条款,以及数百万的主张相互关联的条款;但是,这些主要是分类学主张,而不是CYC中可用的复杂规则。 OpencyC 4.0知识库包含239,000个概念和2,093,000个事实。
释放OpencyC的重点是帮助AI研究人员了解他们现在所谓的本体和知识图所缺少的内容。拥有适当的分类法概念(例如人,夜间睡眠,躺下,醒来,快乐等)是有用和重要的,但是Opencyc内容中有关这些术语的内容所缺少的,但是在CYC KB内容中存在的是各种规则我们大多数人都分享了这些术语的拇指:(默认情况下,在现代Westernhumanculturemt中)每个人都在晚上睡觉,睡觉,可以醒来,醒来,不满意被唤醒等等,等等。这一点不需要不断更新的OpencyC版本,因此,截至2017年,OpencyC不再可用。
ResearchCyc
2006年7月,Cycorp免费免费发布了针对研究社区的CYC版本的Executable 。 (ResearchCyc在2004年全面都处于Beta开发阶段; 2005年2月发布了Beta版本。)除了OpenCyc中包含的分类信息外,ResearchCyc还包括更多的语义知识(即涉及其他事实和经验法则)知识库中的概念;它还包括大型词典,英语解析和发电工具,以及基于Java的知识编辑和查询界面。此外,它还包含一个基于本体的数据集成的系统。截至2017年,ResearchCyc的定期发行继续出现,有600个研究小组在全球范围内无需用于非商业研究目的。截至2019年12月,不再支持研究CYC。 Cycorp希望在未来几年为外部开发人员改进和大修工具。
申请
CYC已有一百多个成功的应用;这里列出的是一些相互不同的实例:
制药术语词库经理/整合商
十多年来,葛兰素葛兰素一直使用CYC半自动地整合了所有大型(成千上万个任期)的thesauri thesauri的药物行业术语,这些术语反映了各公司,国家,年份和子工业的使用情况不同。这个本体的整合任务需要领域知识,浅薄的语义知识,也需要任意深刻的常识知识和推理。制药词汇在国家,(亚)行业,公司,部门和数十年时间内各不相同。例如,什么是凝胶PAK ? Ranitidine盐酸盐的“街道名称”是什么?这些n受控词汇中的每一个都是一个大约30万个术语的本体。葛兰素葛兰素研究人员需要在目前的词汇量中发出查询,使其转化为中性的“真实含义”,然后将相反的方向转换为与文档的潜在匹配,每条文档都符合特定的已知词汇。他们一直在使用大型员工手动做到这一点。 CYC被用作通用互动,能够代表所有术语“真正的含义”的结合,并且能够代表每个受控词汇和CYC之间的300K转换通常的“电话游戏”对含义的衰减。此外,为每个同义词库创建每个300K映射中的每一个都是由CYC完成的。
恐怖主义知识基础
另请参阅: MIPT恐怖主义知识基础
综合恐怖主义知识基础是CYC在开发中的应用,该应用程序最终试图包含有关“恐怖主义”群体,其成员,领导者,意识形态,创始人,赞助商,隶属关系,设施,设施,位置,财务,能力,意图,行为,行为,战术以及对特定恐怖事件的完整描述。知识以数学逻辑中的语句存储,适合计算机理解和推理。
克利夫兰诊所基金会
克利夫兰诊所已经使用CYC开发了生物医学信息的自然语言查询界面,涵盖了数十年的心胸外科手术信息。查询被解析为一组带有开放变量的CYCL (高阶逻辑)片段(例如,“这个问题是在谈论患有心内膜炎感染的人”,“这个问题是在谈论克利夫兰诊所患者的子集在2009年接受手术,等等);然后,应用各种限制(医学领域知识,常识,话语语用学,语法),以查看这些片段如何将这些碎片融合在一起,以一种语义上有意义的正式查询;值得注意的是,在大多数情况下,恰好有一种又有一种将这些碎片纳入和整合的方式。集成片段涉及(i)确定哪些开放变量实际上代表相同的变量,以及(ii)对于所有最终变量,决定变量应具有的量化顺序和范围,以及哪种类型(通用或存在) 。然后将该逻辑(CYCL)查询转换为SPARQL查询,该查询传递给了其数据湖的CCF SemanticDB。
数学
一项CYC应用程序旨在帮助学生在六年级的级别上进行数学,从而更深入地了解这一主题。这是基于我们经常认为我们理解某些东西的经验,但只有在我们不得不向其他人解释或教导它之后才真正理解它。与几乎所有其他教育软件(计算机扮演教师的角色。用户的角色是观察CYC AVATAR并提供建议,纠正其错误,指导它,让它查看它在做错了什么,等等。用户提供了良好的建议,CYC允许Avatar少犯这种类型的错误。因此,从用户的角度来看,用户似乎只是成功地教给了一些东西。这是通过教学的学习变体。
批评
CYC项目被描述为“人工智能史上最具争议的努力之一”。 Luminoso首席执行官Catherine Havasi说,CYC是IBM Watson的前身项目。机器学习的科学家佩德罗·多明斯(Pedro Domingos)出于多种原因将项目称为“灾难性失败”,包括产生任何可行结果所需的无限数据量以及CYC无法自行发展所需的数据。
乔治·梅森大学(George Mason University)经济学教授罗宾·汉森(Robin Hanson)给出了更加平衡的分析:
当然,CYC项目对其许多特定选择持批评。人们抱怨其类似逻辑和语言的表现形式,以选择其原型案例(例如(例如,百科全书文章)),因为它专注于回答表演,有关其重建与维护遗产系统和维护遗产系统的频率以及关于私人与出版所有内容。但是,任何这样的大型项目都会引起此类争议,而且它的任何选择都不是很明显的。他们必须从某个地方开始,我认为他们现在已经收集了一个真正壮观的规模,范围和整合的知识库。其他体系结构可能会更好地工作,但是如果知道地段的重要性与Lenat认为的重要重要性,我希望AI的认真尝试以进口CYC的知识,将其转化为新的代表。没有其他来源接近CYC的大小,范围和集成。
马文·明斯基(Marvin Minsky)也表达了类似的观点:“不幸的是,1980年代AI研究人员中最受欢迎的策略已经死了,” Minsky说。所谓的“专家系统”模仿了法律和医学等紧密定义的主题领域中的人类专业知识,可以将用户的疑问与相关诊断,论文和摘要相匹配,但他们无法学习大多数孩子在当时都知道的概念3岁。明斯基说:“对于每种不同的问题,专家系统的构建必须重新开始,因为它们没有积累常识性知识。”根据明斯基的说法,只有一位研究人员致力于建立全面的常识性推理系统的艰巨任务。道格拉斯·莱纳特(Douglas Lenat)通过他的CYC项目,将超过100万规则的逐条条目纳入了常识性知识库。
纽约大学心理学和神经科学教授加里·马库斯( Gary Marcus),一家名为“几何情报”公司的联合创始人Gary Marcus说:“它代表了一种与新闻中所有深入学习的东西大不相同的方法。”这与道格·莱纳特(Doug Lenat)的立场是一致的,即“有时智力贴面是不够的”。
斯蒂芬·沃尔夫拉姆(Stephen Wolfram)写道:
在人工智能领域的早期,就“知识表示”进行了许多讨论,其方法基于自然语言的语法,谓词逻辑的结构或数据库形式主义的结构。很少有大规模的项目尝试(道格·莱纳特(Doug Lenat)的CYC是一个显著的反例)。
马库斯写道:
如果系统地描述和评估CYC,该领域很可能受益。如果CYC解决了总常识性推理的一部分,那么重要的是要知道,这是一种有用的工具,也是作为进一步研究的起点。如果CYC遇到困难,那么从犯下的错误中学习将是有用的。如果CYC完全毫无用处,那么研究人员至少可以停止担心他们是否正在重塑车轮。
自从开始出版以来的几年(1993年),就有一篇有关CYC的新有线杂志文章,有些正面和一些负面(包括一个包含一个问题)。
著名的员工
这是一些在MCC的项目(CYC刚开始启动的地方)或Cycorp的项目时,这些著名人物的工作清单。
道格拉斯·莱纳特(Douglas Lenat)
迈克尔·维特布罗克(Michael Witbrock)
帕特·海斯(Pat Hayes)
Ramanathan V. Guha
斯图尔特·J·罗素(Stuart J. Russell)
Srinija Srinivasan
贾里德·弗里德曼(Jared Friedman)
约翰·麦卡锡(John McCarthy)
也可以看看
Babelnet
分类逻辑
中国房间
DARPA代理标记语言
dbpedia
第五代电脑
freebase
GPT
多媒体的大规模概念本体
著名人工智能项目列表
Mindpixel
永无止境的语言学习
开放的思想常识
语义网
建议的上部合并本体论
Shrdlu
真实知识
Umbel
Wolfram Alpha
Yago
Text is available under the Creative Commons Attribution-ShareAlike License 3.0 and translated from Wikipedia. Non-text media are available under their specified licenses. Wikipedia® is a registered trademark of the Wikimedia Foundation, Inc., a non-profit organization. Wikii.one is an independent organization and has no affiliation with Wikimedia Foundation.Terms of Use-Privacy Policy