<legend id="h4sia"></legend><samp id="h4sia"></samp>
<sup id="h4sia"></sup>
<mark id="h4sia"><del id="h4sia"></del></mark>

<p id="h4sia"><td id="h4sia"></td></p><track id="h4sia"></track>

<delect id="h4sia"></delect>
  • <input id="h4sia"><address id="h4sia"></address>

    <menuitem id="h4sia"></menuitem>

    1. <blockquote id="h4sia"><rt id="h4sia"></rt></blockquote>
      <wbr id="h4sia">
    2. <meter id="h4sia"></meter>

      <th id="h4sia"><center id="h4sia"><delect id="h4sia"></delect></center></th>
    3. <dl id="h4sia"></dl>
    4. <rp id="h4sia"><option id="h4sia"></option></rp>

        365游戏厅网页登录
        您当前的位置:天津长安网 > 观点 > 工作探讨 > 正文
        ChatGPT引发着作权问题新思考
        天津长安网 http://www.zml1980.com  2023/02/15
          【字号:

          人工智能作为一项具有颠覆性的新技术,不断对法律、治理提出新挑战。2017年,微软机器人“小冰”出版诗集《阳光失了玻璃窗》,就受到社会的广泛关注,随即引起了法律界的热烈讨论。

          此次伴随着ChatGPT的“一夜成名”,人工智能生成的内容可否构成作品?人工智能是否应被承认为作者……相关话题再次引发各方激烈争论。值得关注的是,多家知名学术期刊已迅即作出反应。《科学》(Science)明确禁止将ChatGPT列为论文作者,且不允许在论文中使用ChatGPT所生成的文本。《自然》(Nature)的态度略微缓和,允许在论文中使用ChatGPT等大型语言模型工具生成的文本,但不能将其列为论文作者。两大顶流学术期刊非常明确的表态,让我们不禁反思“何为作者”“何以创作”这两个对于着作权法与学术研究而言至关重要的基础性问题。

          从现行着作权法律制度来看,无论是大陆法系还是英美法系,均排除了人工智能成为作者的可能。大陆法系国家一般规定只有自然人才能成为作者,连法人都不能成为作者。英美法系国家通常以产业发展为导向,因此,在这些国家,除了直接创作作品的自然人之外,法人也可以成为作者。我国着作权法一方面强调,创作作品的自然人是作者;另一方面也规定,由法人或者非法人组织主持,代表法人或者非法人组织意志创作,并由法人或者非法人组织承担责任的作品,法人或者非法人组织视为作者。因此,无论是域外立法还是我国法律规定,在着作权法律制度框架内,除了自然人与法人之外,不存在其他可以成为作者的主体;就此而言,ChatGPT不能成为作者自然是题中应有之义。

          不过,着作权法的界定似乎与公众的日常感知有较大差异。从新闻报道来看,ChatGPT可以撰写邮件、代码、小说,通过大学和专业资格考试,还能撰写专业性极高的学术论文,且这些论文甚至连专业研究者也无法轻易分辨。面对如此智能的ChatGPT,公众不禁提出疑问:这不叫创作吗?其还不能成为作者吗?

          ChatGPT的技术原理是,依靠从训练数据中学到的模式和关系,来生成风格和内容与训练数据中的文本相似的新文本。尽管ChatGPT也有能力生成以前从未见过的单词、短语和句子的新组合,但这些内容都是基于人预先设定好的程序、算法的结果,ChatGPT并未突破人类辅助工具的范畴。

          事实上,ChatGPT在与网友的“聊天”中,自己也承认,“我对生成的文本没有切身经历、想法或创意控制”“我生成的文本旨在用作工具或资源,而不是原创作品”。着作权法意义上的创作,应当是有目的、有意识且具有原创性的行为。ChatGPT显然并未实施着作权法意义上的创作行为,自然不能成为作者。

          除了不符合作者的法定构成要件之外,阻碍ChatGPT成为作者的另一个法律障碍,来自其没有独立的责任能力。我们通常所说的“文责自负”,意在强调,如果文章出现问题,责任由作者承担。然而,在人工智能生成内容的语境下,一旦发生着作权纠纷,最终责任的承担者显然不是人工智能。

          应当说,知名期刊禁止将人工智能列为作者或者在论文中使用人工智能生成的内容,除了法律层面的考虑外,也意在控制伦理风险。科学技术是一把双刃剑,在推动生产和生活方式发生深刻变革的同时,也带来科技伦理挑战。在科学研究中使用人工智能生成的内容,除了在学术伦理上可能引发是否构成剽窃、学术失范等争议外,还可能存在算法偏见、虚假叙述等一系列伦理风险。科技要创新,伦理应先行,知名期刊率先在学术领域规范人工智能技术的使用,在未来可能进一步形成行业自律规范,有助于引导人工智能发展“科技向善”。

          尽管进入人工智能时代后,人类在创造性活动中独一无二的主体地位受到挑战,人类的主体地位似乎有所衰落,有学者甚至提出了人工智能时代就是“后人类时代”这一命题。然而,在人与物的关系上,物永远只应是手段,人永远是目的。让人的创造物——人工智能成为作者,令其获得与人平等的地位,于法无据、于理不合。

          (作者系中国人民大学法学院知识产权法教研室主任、教授)



        来源: 法治日报 编辑: 范艺瀛
          版权所有:中共天津市委365游戏厅网页登录_365bet365网址_bat365在哪进委员会
          津ICP备13002710号   技术支持:新浪网