找回密码
 立即注册
搜索

温姝菀|技术向善视角下人工智能之误读与矫正路径





ChatGPT引爆了新一轮关于人工智能的讨论。人类面对人工智能呈现的不同认识映射出人类在科技更新迭代面前的积极、惶恐等复杂心境。尽管人们对人工智能的认知视角及接受程度存在差异,但在技术向善这一价值期待上人类理应保持一致。技术向善并不意味着人工智能能够理想化地满足人类希冀的各项要求,而是承认技术存在适当的功能限度。随着技术的精进,人工智能话题也亟待深入,但有关人工智能的替代性、人工智能的成长路线呈线性以及人工智能治理未实质社会化等认识与现状阻滞了探讨朝前延展。问题指引着路径选择,应当借由坚持人在回路的人机交互方式,尝试分领域发展工智能,提供治理社会化的条件来矫正现存的人工智能误识,构筑人机和谐的社会生态。



一、问题的提出

数字时代科技呈几何级数迭代升级,其中人工智能技术也因乘时代之风不断得到精进。自Chat‑GPT的公众端口开放以后,关于人工智能的讨论再次陷入爆发式增长态势。“ChatGPT是一种自然语言处理机器学习模型,它使用第三代生成式预训练变换模型(GPT-3)来生成类似人类撰写的文本,是一种人工智能。”进言之,由ChatGPT引发的各项探讨实质上仍然可以归复于对人工智能的讨论。对于人工智能的理论探讨最早可以追溯至1956年的达特茅斯会议。然而,就如技术追求不断精进一般,关涉人工智能的讨论也应当愈发深入。过去一些围绕人工智能展开的讨论,如人工智能能否实现毫无歧视与偏见,在当前看来不应再注入太多精力,因为社会已经逐渐意识到人工智能倚赖的数据本身难以满足绝对中立,故人工智能毫无歧视与偏见属于理想状态,更为现实的追求是向中立状态逼近。进言之,若要推动人工智能的话题朝前延伸,需思考已经存在的讨论和认识,并立足于新的技术发展环境与动态,厘清存在哪些对人工智能的误读,进而形成正确的理解。

在法学理论场域,关于人工智能的既有研究多围绕人工智能的主体地位,人工智能的域外规制经验,人工智能法学以及人工智能的法律责任等展开讨论,这些讨论在当时的技术生态下有着重要的争论价值,亦析出了部分共识,但较少涉猎人工智能承载的价值期待,且对于社会当中存在的关于人工智能的模糊、混沌认知缺乏关注。是故,本文将沿以下思路展开论述:首先分析人工智能被寄望的价值向度,其次提炼出社会认知中存在的对人工智能的误读及部分监管瓶颈,最后试指出更正误读及助推人工智能向善发展的路径。

二、人工智能技术向善的尺度

尽管不同主体对人工智能可能作出差异化的认识与评价,但在价值层面各主体又会走向融合。换言之,即使个体对人工智能表现出乐观、惶恐、担忧等不同心境,但在希冀人工智能实现技术向善,为人类社会的发展带来福祉这一价值期望上又能够形成一致性。需要澄清的是,技术向善不等于人类可以通过规训科技使其满足人类的各种臆想,而应当承认“善”亦只能是“有限善”。

相较于人而言,人工智能的一项显性特征是其没有天然的情感与情绪,亦没有人特有的感知力。可以认为,在初始状态下人工智能并不具有对错、好坏、善恶等价值认知。但是,当前的人工智能不能再简单定义为弱人工智能,其具有更为突出的学习能力,可以基于学习形成并表现出人类具有的情感反应及道德判断。ChatGPT也正是因为有RLHF(ReinforcementLearningfromHumanFeedback)——从人类反馈中进行强化学习的技术加持,使其在与人对话与交互过程中表现出过往人工智能较为欠缺的语境理解及仿人类语言习惯的优势,让用户在使用后认为具有较强的革新性。申言之,现阶段的人工智能可以通过深度学习及嵌入数值等方式模拟人类的思维方式并形成类人类的价值观。这意味着此类人工智能能够对事物作出对错、好坏等评价。有鉴于此,若要保障技术向善,即需要让人工智能形成的价值观与人类社会所认可的正向价值观对齐。

应当承认,从理性角度而言,不是任何事项都存在绝对的正向与负面价值认知,对有些事项的价值认知可以很多元,无需主张所有群体必须共同遵从某一特定的价值倾向,毕竟社会应当展现一定的包容性。因此,人工智能价值对齐亦不是针对可以具有多元价值倾向的问题作出要求。与之不同的是,有些问题在人类发展演进中已经得到验证并有了确切答案,故有必要训练人工智能在此类问题上做到价值对齐。譬如,不同种族之间的社会地位平等,不能具有肤色歧视已经成为人类社会普遍认可或主流的价值观。然而,过去在对人工智能进行类似价值认知的实验时,人工智能表现出歧视的现象并不少见,这表明实验中的人工智能并未做到价值对齐。进言之,人类在发展人工智能技术时并非追求人工智能完全价值无涉。理由在于,人类自身在实然层面无法做到价值无涉,而人工智能倚赖的数据及模型由人提供和训练,故要求由人通过模型训练而成的人工智能做到价值无涉在逻辑上难以证成。基于此,人类能够进行控制和操作的是尽可能让人工智能在具有较大社会共识的问题上与人类价值观对齐。

概言之,技术向善首先要保障人工智能在基础性的价值观上不出现偏移。当然,对齐并非指人工智能在任何问题上都要形成某种特定的价值认知,而是强调在社会层面具有定性指向的价值观上与人类保持一致。同时,囿于实际操作中人工智能的优化路径通常采用打补丁的方式,而价值观会对各种不具有标准答案或非数字计算的问题产生直接影响,具有基底性的地位,故应当在出厂时就对人工智能的价值对齐进行检验,让技术向善具有实现前提。

事物存在应然状态与实然状态。应然状态承载着人类的美好期待,实然状态则表征着事物基于现实境况、条件所显现的样态。对于人工智能,一直有部分关于限制其发展或者禁止其在某些领域运用的呼声。然而,从产业、行业抑或是国际社会的发展态势来看,人工智能向前驱尽乃是大势所趋。换言之,为人工智能的发展按下暂停键并不是一项妥当的问题解决之策。值得注意的是,部分声音之所以主张限制人工智能发展,是因为人工智能无法契合人类的诸项要求,无法达致部分群体事先预设的人工智能“应然状态”。

一方面,人类有理由在人工智能身上赋予某些期待,这符合成本与收益的经济原理;但另一方面,人类不能理想化人工智能。出于人工智能存在未知和不确定便主张抑制其发展的思路过于严苛。实际上,实然存在的事物都具有一定的局限性,这一认识社会大部分群体本来能够接受。但是,现实中对于人工智能的发展表现出强烈负面态度的现象实际上反映出部分群体对人工智能具有局限性的肯认并不彻底。理由在于,在认可人工智能具有局限性的前提下,要求人工智能近乎“完美”显然难以逻辑自洽。

申言之,技术向善并不意味着苛刻要求人工智能克服自身的局限性,而是预示着在合理的期待阈值内引导技术向善。《最高人民法院关于规范和加强人工智能司法应用的意见》中明确指出人工智能应当处于辅助地位,即在定位上就应当基于人工智能的工具属性及辅助性对其进行价值赋予。技术向善承载着人类主体对人工智能的美好愿景,但应然与实然之间有时存在难以消弭的差距。人类社会可以对人工智能的发展提出要求,也应当对其施以规制,但也需要回归并立足于现实,把期待控制在合理阈值之内。

三、人工智能发展之误读与瓶颈

引导技术向善是不同面向人工智能讨论的共同价值出发点,而技术向善在匹配现实环境与条件后亦有自身的价值限度。在人工智能发展进程中,各种目光的注入为认识人工智能带来了多元视角,开阔了社会的认知思路。但同时,过热的探讨也给社会带来了各种模糊的认知和碎片化的理解。

人工智能的法律人格或法律地位至今仍然是一项非常热的议题,在法学研究场域得到了颇多关注。通过展开论证来否定人工智能的人格性或法律地位与人工智能的工具属性相匹配。但是,有些讨论则尝试拟制人工智能的法律人格或提出追究人工智能的法律责任。这种探讨虽然有理论价值,且提供了论据支撑自身的主张,但在方向上终归是偏离了人工智能的工具定位。同时,有的话题更为直接地指向人工智能是否将替代人类。可以预见的是,对于机械性或纯体力的工作或活动,由人工智能替代具有显性趋势,毕竟人类社会对效率本就有所追求。但对于其他非体力性活动,人类是否会被替代,在很长的时间区间内应当是否定答案。进言之,关于人工智能对人类的替代性讨论,并非不值得展开,问题在于这种讨论背后实际上投射出了一种有失偏颇的判断,即人工智能的发展方向会是人工智能逐渐占领不同领域并最终取代人类。

不可否认,社会发展的事实与动态已经印证人工智能会逐渐在各领域渗透,但并不应借此陷入人工智能将取代人类的恐慌当中。在检视人类发展人工智能的动机时就已经明确,人类希望的是技术向善,使机器服务于人类需要。因此,认为由机器替换人类的所有工作或社会活动是发展人工智能的最终归宿的观点并不妥适。以讨论较多的智能审判为例,对于人类法官是否会被替换进而实现完全的审判自动化这一问题,答案应当是否定的。首先,理性的社会本就不应当追求绝对的机器法官,这应当较好理解。其次,回归到现实层面全自动的机器法官亦不具有可行性。人工智能的应用倚靠算力,愈复杂的活动需要愈大的算力,而算力开发需要牺牲能源效率。换言之,当算力开发的成本过高,倚靠人工智能来进行活动的合理性、必要性基础就会丧失,进而导致人工智能将取代人类的预设也缺乏说服力。有观点可能会称美国哥伦比亚法官参考ChatGPT回答的内容并将其纳入判决书,说明人工智能已经有能力进行独立审判。然而,案件审理是一项从前期准备、案件审判到后期文书公布等一系列综合性的活动,ChatGPT在此案件中仅是充当了回答问题,辅助判决文书撰写的功能,和充当独立法官之间存在殊大差异。

简言之,在数字时代社会定然要防止科技的恣意发展反噬人类社会,对技术的张力保持一定的警惕。但是,人类社会本质上并不以机器代替所有的社会生产活动为目标,且这一预设亦与资源有限性之间存在矛盾,故讨论人工智能的替代性问题实际上是对人工智能发展方向的一种误读,模糊了人工智能的工具属性,容易陷入技术悲观主义论调。

有学者将人工智能的发展阶段分为弱人工智能、强人工智能和超人工智能三个阶段。一方面,这种划分方式体现了人工智能总体上呈能力上升的趋势,契合技术迭代升级的通常演化路线。但另一方面,这种关于人工智能成长路径的预测却有意或无意地忽视了技术成长面临着复杂的外部因素。以ChatGPT为例,这一大型语言模型实际上是倚赖2021以前的庞大数据量喂养而成,其面世背后是科技公司投入的巨大经济开发成本。当前大量的应用程序开始引入或内嵌GPT语言模型,但其运行模式大都为几次免费试用+后期付费使用,即仍然遵循了投资后用以换取商业回报的运营模式。从使用体验来看,ChatGPT的精准性已经有所提升,但是仍然未达到较高比例的精准性,大多需要使用主体进行人为的二次识别。这一方面归咎于当初的数据库时间节点是2021年,即某些数据缺乏即时性;另一方面则是在开发思路上存在部分不妥适。

具言之,大部分科技公司在投入巨大的资本进行人工智能研究时,都很难绕开这样一种诱惑,即开发研制一款庞大机器,该机器的功能足够多元和强大。此种思路同样属于认为人工智能在功能上会线性成长且越来越强大。然而,暂且不论资源和技术上的可行性,难以证成此观点可行的最直接一点是,人工智能的学习对象是人。人类自身本就具有难以规避的知识局限、专业局限甚至道德局限,故要求人工智能在全领域同时发力地线性成长实际上并不理性,甚至将造成资源的浪费。如此就引发了一项悖论,即科技公司开发出了在各领域都能够给出答案,尽管答案的精准性无法保障的人工智能,但社会需要的却是在精准性、专业性上能够随着技术的精进逐渐提升的人工智能。社会最初对ChatGPT有着强烈反应的部分原因在于其在与人类交互时表现出了过去人工智能难以表现出的“认错”“鼓励”“安慰”等行为,但这些拟人类情绪本质上仍然是由机器基于对人类的学习而生成的数据代码在驱动。因此,当使用者真正运用ChatGPT进行数据检索及文献分析等工作时,又会很快“祛魅”,发现其精准性确实无法恭维,还能一本正经胡说八道。

“虽然ChatGPT被誉为自然语言处理领域的一项杰出成就,但并不意味着它就是‘超算大脑’。”概言之,在欣喜于ChatGPT的“革命性”升级之余,应当回归到对问题解决的有效性或输出内容的准确性的追求上,“万能机器”的预设以及线性的思考人工智能的成长路线偏离了社会对人工智能承载着的工具价值的期待。

在谈及人工智能的规制时,容易显现出的思维惯性是加快立法活动进行规则建构。在法治国家,规范的约束性有体制机制的保障,的确是一条面临社会问题或社会现象时的常规因应路径。但是,如果单纯将主张停留在抽象或宏观的完善规范层面,而不将话题向下及向内延伸,则容易出现举措口号化,难以增益实际的规制效能。同时,囿于人工智能风险在社会层面的实在性,行使公权力、生成监管规范、调配资源实质上属于国家的例行事务与活动。然而,社会呈现立体和多维性,主要倚靠国家出面仍然只能释放部分监管力量,这显然无法良好的因应人工智能与人类交融愈发紧密的社会发展趋势。

实际上,在规则并未呈现出明显滞后性的境况下,人工智能的规制应当放置在社会场域中进行强调,即不仅关注规则的约束与监管,亦重视通过社会力量驱动规则得到遵守和落实。换言之,要强调人工智能的社会治理。然而,现实的人工智能监管动态表明大部分公众仍然处在被动位置。公众的被动存在两种情形,一种是有能力参与到人工智能治理行动中而不参与,另一种是基于现实条件的限制而被迫无法参与。第一种情形主要是基于主观因素,故需要对该部分群体进行认知矫正,激活群体的参与主动性;第二种情形则是基于客观因素。譬如,过去有学者认为人工智能具有异化的风险。在当时的语境下,异化更多的指向技术不确定和未知性带来的风险。然而,随着人工智能技术的RLHF学习能力愈发成熟,由于机器本身并不具备先在的判断性认知,异化风险可能表现为对本是错误的数据、标准、知识进行强化性学习并视为正确。这就会造成人工智能沿着不契合人类需要的一套逻辑在人类社会中运行。加之算法和代码一般情形下并不会直接显现给使用主体,甚至使用主体也可能受制于数字语言无法理解,此时人工智能的负面效应就具有极大的隐蔽与潜伏性。在此种情形下,社会公众处在被动位置,即使有意愿、有责任也无法发挥自身的力量。同样,2022年国家互联网信息办公室公布了24家企业的算法备案情况。算法备案体现的是国家对互联网企业的监管与治理,也寄望各企业接受社会的监督。问题在于,这些公布的备案多运用专业性的语言书写和表达,普通社会公众多无法理解与判断,更难谈开展社会治理。由此可知,虽然注入社会力量因应人工智能的发展已经取得一定共识,且成为愈发明确的未来方向,但显然社会化的开展条件仍然不成熟甚至欠缺。

四、驱动人工智能有序精进的路径

ChatGPT被称为现象级人工智能应用,引发了不同面向的井喷式讨论。各种讨论及认识昭示着人类社会对人工智能存在不同的态度与观点。但是,技术向善是驱动这些表达的共同价值向度。期待技术向善并不意味着能够寄望人工智能成为没有弱点和盲点的超级机器,认知层面对人工智能的部分误读应当及时得到澄清,裨益人工智能的有序发展和讨论的正向深入。

关于机器是否会取代人类的讨论长久存在于人工智能的话题射程范围内。虽然并没有直接证据证明人类一定能够有效控制人工智能的发展限度,但能够肯定的是人类定然不会期望被人工智能所替代。换言之,当人类能动地去设计人工智能的发展路线时,人类探索的是如何更好地实现人机共存。同时,需要注意到的是,就如人工智能会更新迭代一般,人类也有自己的演进路线,故应当采用进化的观点看待人工智能的发展,看待人与人工智能之间的关系。有鉴于此,目前更为积极的举动是先走出人工智能将替代人类的发展预设,沿着人在回路的路线发展人工智能。

具言之,人在回路(human in the loop)过去多出现在对技术的讨论当中。但是,随着人工智能技术向前发展,人在回路实际上也表征着一种机器发展路线,即人工智能的运用需要人机互动,而不以追求脱离人的反馈的完全自动化为目标。在我国现实的情境中,对于人工智能的优化多采用打补丁的方式进行运营和维护,即已经出厂或者运行中的人工智能不会在本质上进行迭代升级。这种运维方式较为方便,但也存在显性弊端,如人工智能的运行质量无法得到有效保障。与之不同的是,人在回路的发展路线让人工智能在进入应用及实际操作后仍然能够基于指令及反馈等执行或变更相关的设置,即保持与人存在联系,而不是脱离人的自动化。

需要明晰的是,自动化与人在回路并非互斥关系。对于风险系数较低,人类具有一定后果承受能力的工作、活动等,通过人工智能实现自动化从而节省人力、提高效率具有经济与价值层面的双重合理性。进言之,不应当把人在回路理解为在任何事项上都要求人的介入,其更多的是在宏观与具体情境中对人类的参与有所强调。在宏观方面,人在回路以人机交互作为人工智能长期的发展方向,而非纠结于人工智能对人类的替代。在具象上,人在回路的发展路线意味着在一些需要倚靠人类智识以及难以通过编码进行数字化判断的活动上,坚持机器的辅助角色,由人类把控机器的运行并且为其输入反馈。换言之,人类可以将更多的时间精力投入到复杂性、创造性、增值性的工作中。譬如,在承载着公平、正义价值期待的审判活动中,社会不应当憧憬人工智能成为自动化的机器法官,而应当探索如何利用人工智能便利人类法官审判案件。同理,人类的创作是推动人类社会进步的重要活动,人工智能应当被用于进行资料检索和数据获取等,而非直接使用人工智能生成各种“成果”。质言之,人工智能和人类总体上应当属于交互关系,在发展人工智能时应坚持“人在回路”,明晰人工智能的工具定位,在具体场合适时给予人工智能指令或控制,降低机器的运行风险。

人工智能具有局限性这一命题可能不会具有过多争论。与此同时,人工智能技术能够得到精进似乎也可以给出肯定答案。然而,将这两种认识结合在一起,并不能得出只要时间足够长,人工智能就能够发展为超人工智能这样的答案。事实上,在强调长足视角的同时,问题的考虑也需要立足于现实。应当承认,人工智能在计算、记忆等方面可以实现客观、精准、高效,这明显优于一般人类的行动能力。但是,人类社会的活动多元而繁杂,除却可以通过公式、代码等数字运算精准运行的活动以外,诸多活动由机器执行时需要进行专门的技术深耕。要求人工智能同时涉猎不同专业领域,显然偏离了实际的科技发展水平。是故,改变线性思考人工智能成长路线的思维定式,适当搁置培养全能型人工智能的想法,按照专业领域设计开发人工智能不失为一种可行路径。

当前人工智能的学习能力在不断得到强化,但其学习的对象终归是人类。人类社会本身就强调社会分工及术业有专攻,故人工智能也可以尝试朝领域性强人工智能方向精进。申言之,人类对于人工智能的判断标准应当更加理性,在能够驱使其实现价值对齐的基础上,应当明晰人工智能的进步并不仅仅可以表现在处理问题的广度上,更可以显现为领域的深入上。这样的人工智能成长路线既契合了技术向善的内置向度,又更具有现实可操性。

当然,从数字正义和社会公平的角度来看,人工智能也应当改轨而行,将多领域分布式精进作为成长路线。理由在于,除了经济和技术上的现实原因以外,如果不人为的调控人工智能的渗透领域,其定然难以绕开向资本倾斜、朝强势领域优先进军的惯性。仍然以ChatGPT为例,该语言处理模型以英语作为主要数据语料,对于其他语言虽也有一定涉及,但在精确性上英语占有明显优势。这就导致话语权的不平等、资源分配的不均。另外,ChatGPT在语法更正、文本生成领域表现较为突出,这给语言行业带来了技术支持,但是其他行业却较难获得同等质量的技术支持,这种差别容易在行业间形成竞争壁垒。

由是观之,针对线性思考人工智能成长轨迹的误识,应当明晰人与人工智能皆具有能力边界,经济与技术上的阻力以及发展背后的平等问题启发社会可以分散性的开发设计人工智能,让人工智能技术在不同领域进行专业性精进。

开拓社会力量应对人工智能的应用与发展,契合成本与收益的经济原理以及比例原则的要求。具体的逻辑路径是社会成员通过承担社会责任助力人工智能的运行,减少风险并且从中获得增益,进而实现社会效应的优化。(见图1)



应当申明的是,治理的社会化不能仅停留在治理方向上的强调,而应当生成社会化的条件和基础配置,这是改变社会成员处于被动地位的关键。此种条件可以与社会成员被动性的成因相对应,一是形成驱动社会成员心理主动性的条件,二则是形成社会成员客观参与的基础设施。事实上,如果社会成员能够基于全局性利益观思考问题,则容易具有主动参与或配合人工智能治理的心理。但是,若部分成员仅关注直接的、眼前的利益,则较难具有主动参与的意愿。有鉴于此,在制度建构时,需要嵌入一定的激励机制对社会主体的行为进行差异化评价,矫正部分社会观念,形成主动参与人工智能治理的社会倾向。

在社会成员具有主动性的基础上,应当倾注更多的力量来纾解社会成员发挥作用时面临壁垒的问题。换言之,如同在探讨技术向善时提及对人工智能应当保持适当的期待阈值一样,对社会公众也应当保持包容心态,即认识到社会成员不同于专业技术人员,其对于代码、算法以及数据等的理解大多仅处于表层,其对技术语言和规范的认知相当有限。因此,若要调动社会力量实质性地参与人工智能的治理活动,需在技术圈层与社会外界之间形成架通性桥梁,便于社会普通公众理解相关的技术设计及运作规则,进而让公众从用户或他者视角提出切实有效的反馈与建议。当然,这种桥梁的搭建并不是指让公众进行技术知识的输入等,更多的是通过表达形式的转化便于公众理解,运用技术支持提供用户友好型设计等,减少公众参与时面临的无措。简言之,在社会化治理成为大方向时,应当通过机制的建构生成具体的条件与土壤,让人工智能项下的社会化参与变得具体且可操,使“1+1〉2”的追求具有转化为现实的基础。

结语

ChatGPT被称为跨时代的人工智能应用,引发了商业模式的变革和交互范式的迭代更新。在激动与部分恐慌交杂下形成的复杂心理让人类再度聚焦于人工智能的话题并展开了不同面向、不同场域的探讨与争论。科技定然在改变人类生活,但人类也尚且具有规训科技的能力。围绕人工智能的讨论和表达或许在不同程度映射出表达者自身的心理情境,但囿于各种声音的交织社会中出现了对人工智能的混沌认知、碎片化理解等,包括认为人工智能最终将取代人类,人工智能技术呈线性上升的成长轨迹。同时,当前在肯认人工智能的治理需社会化时又欠缺开展的条件和配套设置等。这些误读和发展瓶颈投射出对人机之间的关系审视不够正确,容易造成人工智能发展方向的偏轨、平等问题的滋生以及因应乏力等弊病。“在预估人类整体发展趋势的同时,应积极寻求人类和人工智能和谐发展的多元路径,探寻后人类时代背景下人机和谐发展的可能性甚至法则。”是故,回归技术向善所承载的价值限度,在发展人工智能技术时应坚持人在回路的发展路线;对技术祛魅,知悉人工智能技术的实际发展目标不是产生一台万能机器,尝试分领域精进人工智能;搭建与形成治理行动社会化的机制和条件。当这些模糊、混沌的认知得到澄清,合理的路径获得遵循,引导人工智能技术向善方实现了最佳诠释,数字正义的图景亦才能逐渐朝人类靠近。



熊进光 贾珺|元宇宙背景下ChatGPT蕴含的法律风险及规制路径

何郑浛|论生成式人工智能责任承担体系的构建

安阳|从违法性认识角度对人工智能刑事责任主体地位之考察

程雪军|AIGC浪潮下超级人工智能平台算法黑箱的治理路径

张炜羿|刑事司法人工智能的信任困境及其纾解

蒋星玥|算法推荐对短视频平台注意义务的影响解析

上海市法学会官网

http://www.sls.org.cn

本帖子中包含更多资源

您需要 登录 才可以下载或查看,没有账号?立即注册

x
回复

使用道具 举报

您需要登录后才可以回帖 登录 | 立即注册