ChatGPT国内能用吗?关于ChatGPT的立场文件概述了学校和大学的机会

ChatGPT国内能用吗?关于ChatGPT的立场文件概述了学校和大学的机会

ChatGPT国内能用吗?关于ChatGPT的立场文件概述了学校和大学的机会。Credit: Pixabay/CC0 Public Domain

(神秘的地球uux.cn)据美国物理学家组织网(by Technical University Munich):ChatGPT的公开发布让学校和大学相当沮丧。然而,由TUM和Ludwig-Maximilians-universit(LMU)从事教育、社会、计算机和数据科学的20多名科学家撰写的一份立场文件显示,所谓的语言模型也为教育提供了许多机会。这项工作发表在EdArXiv预印本服务器上。

在这次采访中,协调员Enkelejda Kasneci教授解释了新技术如何使学习者受益,并使教师的工作更容易。

纽约学区已经禁止使用ChatGPT。这是正确的前进方向吗?

我们认为这是错误的方法。这也是最简单的方法。像ChatGPT这样的语言模型的开发是一个技术里程碑。没有回头路了。工具在世界上。它们会变得更好,我们必须学会如何建设性地使用它们。我们相信,它们为以前处于不利地位的人提供了巨大的赋权机会。ChatGPT和类似的项目可以带来更大的教育公平。

谁可以从ChatGPT应用程序中受益?

首先,这是一个工具,它使世界上所有能上网的人都有可能学习——不管他们自己国家的教育系统质量如何。第二,它可以帮助人们更好地用文字表达自己,否则他们很难这样做,例如由于残疾。这可以为他们提供参与社会的新机会。

在学校呢?

在这里,我们看到了这种工具的个性化使用的巨大潜力,以克服每个孩子的个人弱点,发挥优势,并有助于建设性的学习成功。我们正在谈论一种基于人工智能的工具,它可以识别并生成各种形式的文本。学生们可以得到替代措辞或更好的文章结构的建议。这可以帮助他们提高表达能力。

我的研究主席团队刚刚开发了一种工具,可以使用大型语言模型分析文章,并提供反馈,如:“最好使用一致的动词时态”或“你可以更加注意虚拟语气。”这种反馈可以根据每个孩子的年龄和技能水平进行调整。

目前,人们似乎担心语言学习会变坏。

我们不这么看。相反,像这样的应用可以促进对语言的理解。但是他们也可以在其他科目上有所帮助,例如,就某一主题提出问题。在家准备考试的学生可以把它作为一个学习伙伴,专注于需要更多努力的地方。这是一种在课堂上很难达到的个性化学习水平。

所以人工智能也能让老师的工作变得更容易?

我们认为是的。人工智能也可以帮助他们批改作业。

…由ChatGPT为想要更好成绩的学生生成。

当然,没有人能确定书面作业是在没有外界帮助的情况下完成的。但是这些讨论让我想起了维基百科创立时的争论。那时候,人们担心大部分作业会从网上抄袭。然后,就像现在一样,我们必须从小学开始教育孩子们不要仅仅依赖一个互联网门户网站的信息,他们需要检查信息并根据来源进行备份。

如果一个文本自动化程序可以为考试写答案,这也说明了考试本身的质量。我们必须问自己,我们正在使用什么样的教学方法,我们在多大程度上帮助学习者获得能力,如批判性思维和解决问题的技能。

需要什么来确保ChatGPT和类似的模型在课堂上真正以有益的方式使用?

研究人员必须就语言模型对学习的影响,如何在特定的学习环境中使用语言模型,以及何时可以使用语言模型给出更有力的结论。教师也需要整体教学理念和继续教育机会。我们所有人都需要共同努力,做出快速反应。提供商必须非常认真地对待围绕数据保护、安全、机器学习中的偏见和扭曲、知识产权和透明度的问题。

实现这些目标还需要一段时间。老师们在此期间如何应对ChatGPT?

我们建议所有的老师:试试这些工具!和你的学生一起发现它们。只要你保持批判性的观点,创造力是没有限制的。

相关:论文都是科技与狠活?ChatGPT为何引教育界“封杀”?

(神秘的地球uux.cn)据中新网北京2月12日电(记者 袁秀月):美国OpenAI公司去年推出的聊天机器人ChatGPT,近期成为全球瞩目的焦点。

人工智能将颠覆哪些行业,再次引发人们讨论。这其中,一个不常在此类话题出现的领域,率先感受到ChatGPT的影响——教育。

“也许这一次,对于知识型工作者来说,这就完全等于工业革命。”微软CEO纳德拉评价。据报道,中国的互联网企业也在不断加快类ChatGPT项目的研发。

随着技术以指数级速度发展,人工智能会是教育的终结者吗?如果人工智能将改变未来教育,又将如何改变?

他们禁用了ChatGPT,为什么?

ChatGPT是一种基于自然语言处理(NLP)和机器学习的语言模型,是人工智能自然语言处理工具的最新成果,它不仅能够与人类进行对话,而且能够生成可信的“创造性”内容。

目前,该产品以一种无特别限制方式被普通用户或开发者所使用,因此被用户尝试出了各种可能的应用方式,其智能程度也被认为得到了广泛认同。

国外一项对1000多名学生展开的调查显示,超过89%的学生使用ChatGPT来帮助完成家庭作业。一位大学教授曾告诉媒体,他发现班上最好的论文是由ChatGPT创作的。

教育部门因此普遍对ChatGPT持谨慎态度,美国多所公立学校禁用了ChatGPT,原因是担心作弊。纽约市教育部门发言人认为,该工具“不会培养批判性思维和解决问题的能力”。多家科学期刊也禁止将ChatGPT列为论文“合著者”。

有批评者指出,这是一种“高科技剽窃”和“避免学习的方式”。也有人认为,传统教育将被彻底颠覆。

近日,《暨南学报(哲学社会科学版)》《天津师范大学学报(基础教育版)》也发布相关声明,提出暂不接受任何大型语言模型工具(例如:ChatGPT)单独或联合署名的文章,或建议对使用人工智能写作工具的情况予以说明。

对ChatGPT的担忧有没有必要?

针对ChatGPT带来的问题,多位受访专家认为,担忧恐惧的情绪并不会带来多大帮助,相比拒绝,了解它更为重要。

北京师范大学教育学部副教授张进宝认为,就教育系统中某些特殊和具体的应用情形,由ChatGPT的使用所引发的不良反映,并不能说明太多问题。即使是前述报道中所提到的行为,在他看来也只是短期阶段学生们的新奇尝试,很难说会变成一种长期行为,管理部门所出台的限制措施“还为时尚早”。而对于中国而言,该软件的使用所能引起的不良后果也尚未显现。

在亚太人工智能法制研究院院长、北京师范大学教授刘德良看来,ChatGPT属于通用型人工智能的一个里程碑,但需要注意到,如果把人工智能看做人类自我解放的一种工具,ChatGPT仍旧是一种工具,只不过是先进程度不同,而且它的先进是相对的,需要不断学习和改进。

有学者指出,ChatGPT不太适合需要逻辑、专业知识或最新信息的任务。观察发现,ChatGPT难以进行复杂的数学计算,还可能包括虚假、有偏见或过时的信息。

北京师范大学未来教育高精尖创新中心执行主任余胜泉教授指出,ChatGPT转变了一般性的知识生产,但不是原创性的。

“作为一种大型语言模型,ChatGPT的技术原理并没有实质性的改进,它利用神经网络、海量的语言数据和文本数据来进行训练,通过机器来学习文字和文字之间序列的概率关系,基于上下文背景信息,通过概率关系来预测输出的序列词句。它不是在理解你的语言,就是根据对上下文的理解,找出语言最优的概率,本质上是一个词和句序列的输出。”

余胜泉表示,虽然无法做到原创性的知识发现,但有了海量知识后,对于一般个体不知道的问题,ChatGPT都能给出相对有逻辑的解答。未来两三年,ChatGPT应该还会贯通文本、声音、图片、视频等多模态信息,将推动知识生产效率大幅提升。

该不该用人工智能?

在采访中,多位专家都将ChatGPT对知识生产的影响,类比为计算器之于数学。对于这个“工具”,人们该不该用?该怎么用?

鲁东大学教育科学学院教授、博士生导师、院长闫志明认为,对于文学、新闻、学术研究来说,在写作之前需要做大量的工作,形成文本只是最后一个步骤。例如,对科研工作者来说,首先需要发现有价值的科学问题,需要通过创造性的方法解决问题,然后才是学术论文写作。用人工智能来支持科研工作者完成论文写作,让作者从错误更正、文字润色,甚至论文的常规结构撰写等低层次思维工作中解放出来,这无疑减轻了研究者的压力。

他举例,CloserCopy、Shortly AI等工具,能够根据输入的几个关键词生成并润色词句,甚至撰写长文本;ChatGPT可以帮助写作者搜集论文撰写所需的参考材料。这不但提高了工作的效率,使研究者可以将更多精力投入到更有创造性的工作上,而且也为不太擅长文字表达的科研人员提供了更多的成功机会。

中国教育科学研究院研究员储朝晖认为,数字化对教育的参与应该是替代教育中简单、重复、不需要思考的工作与学习,从而使师生有更多的精力投入教育教学及复杂的学习中。

在余胜泉看来,判断ChatGPT该不该用,就在于用它时有没有认知投入。如果有自己的创造性,大胆用,如果只是为了应付作业或考试,那这是本末倒置。

“智能工具的核心作用并不是要代替人的思考,而是要增强人的思考,尤其是学生。”余胜泉表示,在学生的成长过程中,需要促进思维和认知能力的成长,如果使用ChatGPT代替学生的思考过程“短路”,那就是错误的。反之,如果将其作为一个支架,使学生能看到以前无法看到的东西,思考以前无法思考的内容,站到更高的认知层次上,这种应用就是积极的,应该鼓励。

刘德良提到,目前已有科学家开发出专门软件,帮助教育工作者来甄别由ChatGPT生成的文本。在他看来,这是一个技术问题,应该用技术的方法来解决。

人工智能如何颠覆未来教育?

在今天,拒绝技术的影响似乎不太容易。在采访中,有专家将ChatGPT称为“一个真正可能会对教育产生颠覆性影响的关键技术”。

问题在于,如何影响?在张进宝看来,通常提及的AI写作无法保证信息准确性、缺乏原创性、导致对工具依赖等问题,都还只是ChatGPT用于教育中可能存在的浅层次问题,更为关键的问题是,与AI的互动中所生成的内容、体现的教育价值,可实现的教育目标,及其对学生道德与价值观的影响,可能会脱离教育者的视野。

在余胜泉看来,教育数字化绝不只是技术层面的数字化,技术环境的变化还会促进教育业务流程的升级、重构,促进教育业务智能协同,推动学校组织结构的重塑。

多位专家还提到,对于教育理念的影响是需要重点关注的地方。刘德良认为,在知识生产方式不断发展的情况下,对于独创性的考察更加重要。我们不能原地踏步,仍以分数、做题的速度和效率等为标准,而是应转变观念,在技术基础上强调更高层次的独创性,着重培养学生的独立思考能力和创新能力。

余胜泉认为,教育体系应该积极拥抱人工智能等技术,通过这些技术来提高教育体系的生产效率,给每个儿童提供适合其个性发展,以及足够多的教育服务供给,打破工业时代没有个性的集体化教学,实现规模化教学和个性化培养的有机结合。

人工智能会代替教师吗?

ChatGPT给我们描绘了人工智能影响教育的冰山一角,对于教育工作者而言,又将如何应对这一科技浪潮?

张进宝认为,教育工作者没有必要过分担心AI技术对教育产生的影响。

“人才的多元性与核心竞争力,不仅仅体现在能否写出好文章、提出相对正确的解决问题思路,最关键的还是解决真问题的能力。ChatGPT等AI系统可以节省我们探索问题所需基本信息的过程,但不能代替我们验证问题解决方案的可行性和可靠性。”他表示。

张进宝认为,当前很多人宣称的人工智能技术代替教师的可能性并不大。认知目标只是教育目标中的一部分,事实上,随着信息获取渠道日益丰富,学校系统在促进认知发展方面发挥的实际功效不升反降。

而且,在ChatGPT出现之前,大量的AI类软件已经在工作效率、准确性与智能性等方面表现出了优势,人机协作的思想早已成为教育技术界的共识。

闫志明提到,已有案例表明,当人类智慧与人工智能技术相结合的时候,工作往往能够取得更好的效果。一项研究发现,当通过照片判断淋巴细胞中是否存在癌细胞时,如果只使用人工智能技术错误率为7.5%,如果只由医疗专家来判断错误率为3.5%,但如果将两者结合起来,错误率可以下降至0.5%。

“教师的职责是‘教书育人’,未来大部分简单的知识性教学将会由人工智能承担,教师的重心将放在‘育人’上。教师的工作不仅是传统的传道、授业、解惑,更需要激发学生的好奇心与想象力,培养具有创造力的批判性思维,从而实现针对学生个体的差异化、精准化教育。”余胜泉表示。

在张进宝看来,人们完全没有必要在此时过分恐慌。

“我们相信,人类对自身发展中出现的各种可能的危险一直都有着警觉与调控的能力。‘让子弹多飞一会’,我们才能看到结果中的问题,也才有可能提出更为合理的方案。”

相关:中国学术期刊不接受ChatGPT

(神秘的地球uux.cn)据俄罗斯卫星网:近期,人工智能聊天工具ChatGPT在全球迅速走红,其在教育领域的应用也被视作发展方向之一。目前,多家中国学术期刊对ChatGPT的使用做出了明确限制。

ChatGPT是美国人工智能研究实验室OpenAI研发的聊天机器人程序,于2022年11月30日发布。能够通过学习和理解人类的语言来进行对话,还能根据聊天的上下文进行互动,真正像人类一样来聊天交流,甚至能完成撰写邮件、视频脚本、文案、翻译、代码等任务。从发布到现在,ChatGPT的月活用户数量已突破了1亿。

近期,《暨南学报(哲学社会科学版)》发布关于使用人工智能写作工具的说明。

说明提到,暂不接受任何大型语言模型工具(例如:ChatGPT)单独或联合署名的文章。在论文创作中使用过相关工具,需单独提出,并在文章中详细解释如何使用以及论证作者自身的创作性。如有隐瞒使用情况,将对文章直接退稿或撤稿处理。对于引用人工智能写作工具的文章作为参考文献的,需请作者提供详细的引用论证。

《天津师范大学学报(基础教育版)》也发布相关声明,建议作者在参考文献、致谢等文字中对使用人工智能写作工具(如:ChatGPT等)的情况予以说明。

据报道,ChatGPT目前在大学生中的使用场景多为社会科学、语言、管理、传媒等专业,相比之下,理工科学生的使用较为少见。此外,ChatGPT在运用英语文本比中文文本更顺畅。

此外,多家国际学术期刊也发表声明,完全禁止或严格限制使用ChatGPT等人工智能机器人撰写学术论文。《自然》日前发表文章,明确了学术论文中使用人工智能写作工具的规定,其中列出两项原则:第一、任何大型语言模型工具(比如ChatGPT)都不能成为论文作者;第二、如在论文创作中用过相关工具,作者应在“方法”或“致谢”或适当的部分明确说明。

《科学》杂志不接受使用ChatGPT生成的投稿论文,同时不允许ChatGPT作为论文合著者。《细胞》和《柳叶刀》则表示论文作者不能使用人工智能工具取代自己完成关键性任务,作者还必须在论文中详细解释他们是如何使用这些人工智能工具的。

相关:ChatGPT火爆背后有何法律风险?

(神秘的地球uux.cn)据法治日报(记者 韩丹东 实习生 王意天):调查动机

最近,由美国人工智能研究室OpenAI开发的全新“聊天机器人”ChatGPT火了。作为一款人工智能语言模型,它不仅能和人展开互动,还可以写文章、制定方案、创作诗歌,甚至编写代码、检查漏洞样样精通,上线仅两个月全球活跃用户破亿。

对此,有人直呼“太好用了,你要什么它就给什么”,也有人担忧“一些工作将被它取代”。

ChatGPT的问世掀起了新一轮人工智能浪潮,但其使用过程中可能涉及的法律问题不容忽视,记者对此进行了调查采访。

ChatGPT火了,在国内连续多日冲上热搜榜,一时与ChatGPT相关的各种信息遍布网络。

ChatGPT全称“Chat Generative Pre-trained Transformer”,按照其自我介绍,它是一个由OpenAI训练的大型语言模型,被设计用来回答各种问题并为人们提供帮助。

人工智能、人机交互、自动问答……与ChatGPT相关联的各种“高大上”的形容词让不少人感到好奇:ChatGPT到底能干什么?是否真的像一些人担忧的那样,可以取代文本创作等类型的工作?

《法治日报》记者近日采访发现,ChatGPT的火爆背后暗藏法律风险隐患。人工智能在给人们的生活增添乐趣、提供便利的同时,其信息真伪、知识产权等法律风险也愈发受到关注。另一方面,不少人盯上了其热度想“搭便车”牟利,出现了大批“山寨”产品和账号转卖行为。

存在信息泄露风险

可能侵犯知识产权

ChatGPT爆火后,很多博主拍摄了测评视频。不少人给出评价称,面对一些提问,ChatGPT反应速度、准确性较高,表现甚至优于一些搜索引擎。但ChatGPT的回答通常是笼统的、整合性的回答,而不是具有个性色彩的、创新性的回答。

公开资料显示,ChatGPT可以总结研究论文、回答问题、生成可用的计算机代码,甚至快速通过美国医学执照考试、沃顿商学院的MBA期末考试、司法考试。一些医学论文预印本和已发表的文章甚至正式赋予了ChatGPT作者身份。

但在受访的法律人士看来,ChatGPT的强大功能也隐含着不少法律风险。

“ChatGPT对信息、数据来源无法进行事实核查,可能存在个人数据与商业秘密泄露和提供虚假信息两大隐患。”北京盈科(上海)律师事务所互联网法律事务部主任谢连杰说。

谢连杰分析说,ChatGPT依托海量数据库信息存在,其中包括大量的互联网用户自行输入的信息,因此当用户输入个人数据或商业秘密等信息时,ChatGPT可能将其纳入自身的语料库而产生泄露的风险。虽然ChatGPT承诺删除所有个人身份信息,但未说明删除方式,在其不能对信息与数据来源进行事实核查的情况下,这类信息仍然具有泄露风险。

其次,人工智能生成的信息并不总是准确的,ChatGPT常常出现“一本正经地胡说八道”的情况,需要一定的专业知识才能辨别真伪;也可能有不法分子恶意“训练”人工智能,使其提供诈骗信息、钓鱼网站等内容,损害公民人身财产安全。

“对于这类隐患,平台应充分提示用户其生成的内容可能为虚假信息,且在其生成疑似违法信息时进行拦截或提示用户存在安全风险。”谢连杰说。

泰和泰(重庆)律师事务所高级合伙人朱杰说,ChatGPT在建立语料库、生成文本时,如果使用并非公开的开源代码、使用开源代码商用未办理许可证或者未按照许可证的要求实施的,可能会导致侵权。

他解释说,这类人工智能主要是通过挖掘人类日常交流以及文本,进而统计分析,因此,对于一些受著作权保护的文本、视频、代码等,如果没有经过权利主体的授权,直接获取复制到自己的数据库中,并在此基础上修改、拼凑,极可能侵害他人的著作权。

2019年,国际保护知识产权协会(AIPPI)发布《人工智能生成物的版权问题决议》,认为人工智能生成物在其生成过程中有人类干预,且该生成物符合受保护作品应满足的其他条件情况下,能够获得保护,对于生成过程无人类干预的人工智能生成物无法获得版权保护。

近日,多家国内学术刊物针对ChatGPT发声。《暨南学报(哲学社会科学版)》发布关于使用人工智能写作工具的说明提到,暂不接受任何大型语言模型工具(例如:ChatGPT)单独或联合署名的文章。在论文创作中使用过相关工具,需单独提出,并在文章中详细解释如何使用以及论证作者自身的创作性。如有隐瞒使用情况,将对文章直接退稿或撤稿处理。《天津师范大学学报(基础教育版)》发布声明,建议作者在参考文献、致谢等文字中对使用人工智能写作工具(如:ChatGPT等)的情况予以说明。

朱杰认为,ChatGPT生成的文本等内容是基于大量数据的统计和应用生成的,不具有自己的思想和创新,很难构成著作权法保护的作品。

谢连杰提到,ChatGPT的文本数据挖掘技术可能导致其在他人享有著作权的作品中“借鉴”部分内容。对于这部分内容,若不能构成我国著作权法所规定的“合理使用”的情形,则可能引发侵权纠纷。

借势贩卖租赁账号

“搭便车”山寨频出

ChatGPT走红后,由于服务端对中国大陆的IP有限制,无法注册使用,其账号一时在国内多个网购平台、社交平台上销售火热。在某电商平台上售卖成品账号的店铺,一天之内多达万人付款,价格最低1.68元。

记者在一家名为“ChatGPT账号供应商”的店铺购买了账号,商家随后私聊发来账号和密码,并特别标注输入时需要复制粘贴,还附有登录教程。登录后,记者发现这是一个多人共享账号,左侧聊天栏已经存在许多聊天窗口,系统运行十分缓慢,不一会记者就被提醒不能多人同时提问。

记者发现,某电商平台上,多数商家售卖的都是共享账号,而单人定制账号或者代注册账号的价格往往更高。

近日,多个电商平台对ChatGPT账号销售行为进行了查禁,相关关键词被屏蔽。记者先前账号订单显示商品不存在,进入到商家界面发现,所有的商品均已下架。

然而,记者在社交平台上搜索“ChatGPT账号”等关键词发现,仍有不少网友在提供代注册、有偿账号分享服务,围绕ChatGPT账号展开的买卖行为仍在野蛮生长。

朱杰认为,这种买卖行为可能构成非法经营等违法行为。ChatGPT的正版服务由境外机构提供,而未经我国相关部门批准利用VPN跨境提供经营活动是被明确禁止的,所以国内这些代问、代注册的商家以营利为目的,搭建或使用VPN进行注册账号,未办理国家相关行政许可,擅自经营买卖国外账号,可能会受到行政处罚甚至刑事处罚。

ChatGPT账号价值被炒作成商品以外,借其名称热度“搭便车”的牟利行为也大量出现。近日,记者查询发现,以“ChatGPT”“智能问答”等字眼作名称的小程序、公众号数量激增,不少小程序都显示有“1000+人最近使用”。

记者使用其中一些小程序后发现,这些产品不仅和ChatGPT毫无关系,而且大多以免费试用为噱头,吸引用户注册使用后,再推出收费服务,最终目的是诱人充值以牟利。例如,一个名为“××超级AI”的公众号中提到,可以为用户提供ChatGPT中文版的服务,小程序界面有不同的服务类型,从“AI情感问题”到“AI程序助手”,用户可以选择与不同的AI聊天。

可当记者点击进入“AI情感问题”一栏,还未进行任何操作,对话框就显示记者“已经用完今天的免费次数”,后续体验需要购买VIP,分别为19.9元的一天会员、199元的月度会员与999元的年度会员。

朱杰说,“山寨”软件打着正版软件的旗号进行宣传,欺骗消费者进行下载,可能构成虚假广告;同时,“山寨”软件使用的名称及标志如与正版软件相同或相似,引导他人误认为与正版存在特定联系,可能构成反不正当竞争法中规定的商业混淆行为,将受到行政处罚。

法律规范必不可少

部门监管精细治理

ChatGPT浪潮澎湃,其背后暴露出的人工智能法律风险、围绕ChatGPT展开的无序商业行为亦汹涌来袭,如何应对成为关注焦点。

上海政法学院人工智能法学院副教授郭金兰告诉记者,我国算法行业在此前的标准制定时已经初步尝试了以场景和架构为基准的思路。

2018年7月,中国科学院软件研究所联合15家产学研单位共同编制首个国内人工智能深度学习算法标准《人工智能深度学习算法评估规范》。这一规范基于深度学习算法可靠性的内部和外部影响,结合实际应用场景,确定了由7个一级指标和20个二级指标组成的算法可靠性评估指标体系,做了场景化和精细化算法治理实践的有益尝试。

2022年出台的《互联网信息服务算法推荐管理规定》中明确要求,人工智能的算法应当坚持社会主义主流价值观,不能利用算法危害国家安全和社会公共利益、扰乱经济秩序和社会秩序、侵犯他人合法权益。今年1月10日起施行的《互联网信息服务深度合成管理规定》中明确,任何组织和个人不得利用深度合成服务制作、复制、发布、传播法律、行政法规禁止的信息,不得利用深度合成服务从事危害国家安全和利益、损害国家形象、侵害社会公共利益、扰乱经济和社会秩序、侵犯他人合法权益等法律、行政法规禁止的活动。

随着人工智能产品不断迭代升级,未来对相关产品该如何进行监管与应对?

郭金兰认为,对人工智能监管,需要深入人工智能系统的整个生命周期,从模型的建立、语料库的标注、模型训练、投放市场后的迭代进化直到系统退出使用。监管需要关注到每个具体的环节,包括语料库的筛选标准制定、参与人工标注的人员培训,开发者的价值观考察等。

“对ChatGPT这类生成式人工智能的监管必须将算法监管和数据监管结合起来。在算法监管机制的未来探索中,应充分考虑算法决策的主体类型和作用类别,探索场景化和精细化的算法治理机制。”郭金兰建议说。

朱杰建议,国家应当加强对人工智能的伦理规制,将伦理道德纳入人工智能研发和应用的全过程,增强全社会人工智能的伦理意识和行为自觉,积极引导负责任的人工智能研发与应用活动,促进人工智能健康发展。

相关:ChatGPT会变成作弊“推手”吗

(神秘的地球uux.cn)据央视新闻:“你会取代我们的工作吗?”

“每一次技术革命都会消灭一些岗位,但人类可以有更多新的岗位和新的技能去学习。”

这是人类与最近风靡全网的人工智能聊天机器人ChatGPT的一次对话,“上知天文、下知地理”的高智商配上“八面玲珑”的高情商,ChatGPT刷新了人们对于AI的印象。

有人担忧这一升级版AI是否会抢夺脑力劳动者的“饭碗”,也有人关注私人“助手”会变成作弊“推手”吗?内容原创者的心血如何得到保护?

《热点读》对话中国人民大学国家发展与战略研究院研究员、公共管理学院教授马亮,聚焦最前沿的AI技术话题,为您答疑解惑。

热点读:最近大家都很关注ChatGPT,它究竟能做些什么?AI在不断发展,为什么到ChatGPT会出现爆发式的增长?

答:ChatGPT是一款人工智能技术,可以仿照人类的逻辑思维和表达模式执行各种任务。上线仅仅两个月,ChatGPT的活跃用户就突破一亿,频频上热搜榜成为社会热点话题。

ChatGPT最直接应用的场景就是搜索、客服、问答、咨询等交互领域。目前不少AI客服电话饱受诟病,和话务员的服务相去甚远,一些搜索引擎也往往搜不准、搜不全。ChatGPT则可以通过海量数据和机器学习,更好地满足人们对信息和知识的需求。

ChatGPT在科学研究、文学创作、艺术创作、设计以及教育培训等专业领域都有巨大的应用潜力。网友们尝试通过ChatGPT来写小说、写诗歌、写论文、设计建筑,甚至提出要求模仿某个人物或风格。教师学生可以使用它进行作业批量处理、辅助答疑等等。假以时日,会有ChatGPT支持的AI教师对人类进行定制化的精准教育和培训。

如果说过去是AI 1.0时代的话,ChatGPT则开启了AI 2.0时代,在AI技术领域具有划时代的质的飞跃。ChatGPT是通用型AI,这比具体领域的AI有更强的应用推广潜力,对人类的冲击性和挑战性更强。过去的“深蓝”、“阿尔法狗”等AI产品可以在计算、国际象棋、围棋等单项任务上战胜人类,而ChatGPT相当于培育了一块广袤的沃土,在其之上可以种植成片的森林。

ChatGPT通过其算法模型、大规模语言数据训练,具备了强大的语言理解与生成、复杂推理、上下文学习等能力。可以说是“深入浅出”,以深度学习让算法更能够响应和满足公众需求,“浅出”则是降低了技术门槛,人机交互表现更优异,让公众广泛使用。

在看得见的领域能够部署应用,在产品和服务背后看不见的底层技术上也将实现革新。这可能会重塑涉及人机交互的行业、技术和产品。

热点读:很多人关心,ChatGPT这类应用会来“抢饭碗”吗?会导致脑力劳动工作更“内卷”吗?未来不断进步的AI和人类如何“分工合作”?

答:近些年来,熄灯工厂、无人驾驶等的出现,让人们关心重复性的体力劳动可能被AI取代。ChatGPT之所以受到高度关注,在于它不仅擅长于重复性劳动,而且对专业性、逻辑性和创意性较强的脑力劳动提出了挑战。

比如,程序员、设计师、作家、画家、记者、教师、律师、建筑师等等工作,可能会在ChatGPT引入后出现一定的变化。相对来说,ChatGPT这样的AI一旦大规模部署,效率更高、成本更低。更值得一提的是,AI可以不断迭代升级并自主学习,它的能力会持续增强。

当然,ChatGPT作为AI应用还很难有类似于人类的情感,所以在涉及社交、心理、情感等方面的工作,ChatGPT的威胁目前来说还不大。即便是在创意领域,ChatGPT也还无法和人类匹敌。

与此同时,ChatGPT和其他颠覆性科技一样,在颠覆、替代一批工作的同时,也会创造一批新的工作。ChatGPT会催生大量新的职业,特别是围绕AI的开发、优化和应用,吸引更多人参与相关工作。

ChatGPT的冲击,让很多人担心人类的脑力工作更加“内卷”,而这并非杞人忧天。如果对ChatGPT的应用边界和方式不加有效制约,就可能出现人机大战和人类“内卷”。ChatGPT在客服、咨询、教育、科研、艺术等领域的应用,既会重塑这些行业,也会带来伦理和法律层面的多重影响,有必要提前研判和加强监管。

ChatGPT作为一种AI技术,它的最终目的是服务人类。AI和人类不是非此即彼的关系,而是可以实现良性的分工合作关系。人机协同是AI领域未来发展的主导趋势,即人类和机器有序分工、各取所长、各司其职、并肩作战。ChatGPT这样的AI技术在其擅长的领域发挥作用,而人类则发挥其优势技能。有学者指出,未来是人机共生的时代,需要人类智慧与机器智能携手并进。

热点读:ChatGPT 等AI技术的广泛运用,是否会导致版权纷争、作弊等新问题出现?

答:ChatGPT达到了一个非常高的人工智能水平,在多个领域都会带来很大的变化。未来的诚信和版权问题将会成为需要面对的难题。比如,学生作业和考核如何使用文献阅读、课程论文、开卷考试这样的传统形式?因为ChatGPT分分钟就可以提供答案,甚至比学生自己写的还要好。一旦ChatGPT在教育领域滥用,作弊和反作弊的问题会凸显出来,而学生和教师也都将面临如何教和如何学的困惑。

为了防范ChatGPT对教育领域的影响,不少大学都发布公告,禁止在作业考试中使用ChatGPT。比如开发了识别ChatGPT的检测技术,类似于论文查重软件。这样一来,就能对使用ChatGPT完成的作业进行识别,避免学生依靠ChatGPT蒙混过关甚至取得高分。但是,学生依然可以将ChatGPT提供的结果进行修改而骗过这些检测技术,教育诚信和公平方面的问题还有待观察探讨。

在科学研究领域,ChatGPT可以计算和写作。科学期刊编辑对于投稿论文,很难辨别究竟是人类完成的,还是ChatGPT的作品。所以,最近《自然》《科学》等知名科学期刊纷纷表态,探讨ChatGPT适用与不适用的情形。

同样,在文学艺术领域,ChatGPT创造的作品也将面临版权纷争、法律纠纷等问题。比如,人们使用ChatGPT完成的作品如何署名?ChatGPT可以和人类一样拥有署名权吗?作品的版权归谁?如何区分哪些是ChatGPT的作品,哪些是人类的作品?在多大程度上可以说一部作品是人类的而不是ChatGPT的?

为了防范这些可能带来的问题,至关重要的是要加强监管,提升ChatGPT使用的透明性。如果ChatGPT的应用滥用失控,那么将会带来难以收场的混乱局面。这意味着ChatGPT的开发者要建立使用者名单管理规则,避免其被别有用心的组织和人员使用。对于使用ChatGPT的情况,也需要追踪记录和监测预警,为未来可能发生的纠纷提供依据。

ChatGPT并不完美,比如提供的结果还不够准确,还无法做到字斟句酌。以它为代表的AI技术不断发展,如果能够形成通用标准并得到广泛认可,将会推动实现万物互联和万事协同。全面智能将成为可能,并使城市的运行管理、人们的工作和生活都发生质的飞跃。




上一篇 下一篇 TAG: ChatGPT