在判定人工智能生成物是否属于作品时,独创性是关键的判断标准。然而,这一标准在司法实践中存在诸多争议。从我国现行著作权法来看,作品需是文学、艺术和科学领域内具有独创性并能以一定形式表现的智力成果。对于人工智能生成内容,部分具有人类作品的外观,若不加以提示,难以准确区分是人类创作还是人工智能生成。此时,就需要深入考察人工智能创作过程是否体现了人类的智慧贡献。
以我国苏州市中级人民法院在“丰某诉东山公司侵害著作权及不正当竞争案”为例,用户首次输入提示词由人工智能绘图软件自动生成的内容,不被认定构成作品;但如果用户通过增加提示词、修改参数等对最初生成的图片进行调整、选择和润色,对图片的布局、比例、视角、构图要素、色彩、线条等表达要素做出了个性化选择和实质性贡献,则满足作品的独创性要件。
国际上,不同国家对此观点和做法各异。美国版权局坚持作品必须是人类创作的,必须体现人的创造性,否则排除其作品资格和著作权保护。而相对而言,我国司法界和学术界更加开放,不少法院已经判决人工智能生成内容体现了使用者的创造性,基于作品资格并进行著作权保护。在欧洲,对于人工智能生成物的著作权归属也在不断探讨和研究中,尚未形成统一的定论。
企业要做好版权合规,首先应建设数据源合法性审查机制。依据《生成式人工智能服务安全基本要求》,企业在模型训练和内容生成过程中,要使用具有合法来源的数据和基础模型。可以设计语料授权协议,明确数据提供者和使用者的权利义务,确保数据的使用获得合法授权。
同时,应用区块链溯源技术,对数据的来源、使用和流转进行全程记录,实现数据的可追溯性,有效防范版权侵权风险。例如,通过区块链技术记录每一次数据的采集、处理和使用情况,一旦出现版权纠纷,可以快速准确地查明数据的来源和使用情况。
此外,还应推动标注规则的标准化。对生成或者编辑的信息内容在合理位置、区域进行显著标识,明确内容的生成方式和来源,做到有效防范企业的知识产权侵权风险。通过标准化的标注规则,不仅可以提高企业的合规性,也有助于用户更好地识别和使用AIGC生成的内容。
深度伪造内容的特征识别依赖多模态检测算法,其原理是综合分析文本、图像、音频和视频等多种模态的数据特征。通过对不同模态数据的特征提取和比对,算法能够发现深度伪造内容中的异常和不一致之处。例如,在视频中,眨眼频率的异常可能暗示着视频被篡改;音频频谱的异常则可能表明音频经过了处理。
NIST对抗测试平台在这一过程中发挥着重要作用。该平台通过模拟各种攻击场景,对检测算法进行评估和优化。它会生成一系列具有挑战性的测试样本,包括不同类型和程度的深度伪造内容,以检验检测算法的性能和鲁棒性。通过不断地在NIST对抗测试平台上进行测试和改进,检测算法能够更好地适应复杂多变的深度伪造技术,提高对虚假信息的识别能力。
防沉迷系统设计是管理用户对AIGC依赖度的关键。首先,可通过输入频次控制,限制用户在一定时间内的提问次数,避免过度依赖。例如,设定每小时最多提问10次,防止用户无节制地使用。其次,对生成内容进行可信度分级提示,让用户了解内容的可靠程度。对于可信度较低的内容,给予明显的警示,引导用户理性对待。
在未成年人保护方面,应设置专门的保护机制。例如,对未成年人的输入内容进行严格审核,过滤不适当的信息。同时,限制未成年人使用AIGC的时间和功能,避免对其身心健康造成不良影响。
以ChatGPT历史对话泄漏案例为鉴,企业应加强对用户信息的保护,防止用户数据的泄露和滥用。通过完善的安全措施,保障用户的隐私和权益,增强用户对AIGC的信任。
算法歧视是生成式AI面临的重要伦理问题,消除算法歧视需从训练数据去偏处理技术入手。训练数据中的偏差可能导致AI在输出结果时产生职业、地域、性别等方面的歧视。例如,若训练数据中某一职业的样本多为男性,AI可能在推荐该职业相关内容时更倾向于男性。
为解决这一问题,企业可采用训练数据去偏处理技术,对数据进行筛选和调整,去除可能导致歧视的因素。同时,制定人工标注规则至关重要。标注人员需遵循严格的规范,确保标注过程的客观性和公正性。标注完成后,还需进行核验流程,对标注结果进行复查和修正,保证数据的准确性。
依据《管理办法》第四条规定,利用生成式人工智能生成的内容应当真实准确,采取措施防止生成虚假信息。这也要求在消除算法歧视时,确保AI生成的内容不包含歧视性信息,做到公平公正。通过这些措施,可有效减少算法歧视的发生,使生成式AI更加符合伦理规范。
隐私保护是生成式AI伦理治理的关键环节,可通过输入信息脱敏与使用记录保护双重路径来实现。输入信息脱敏是指对用户输入的敏感信息进行处理,如对姓名、身份证号等进行加密或替换,防止信息泄露。使用记录保护则是对用户与AI交互的记录进行妥善保存和管理,避免被非法获取和利用。
对于生物特征数据,有特殊的规范要求。依据《个人信息保护法》,企业在收集、使用和存储生物特征数据时,需获得用户明确的授权,并采取严格的安全措施。动态数据加密存储方案是一种有效的保护方式,它在数据传输和存储过程中进行加密,且加密密钥会动态变化,即使数据被窃取,攻击者也难以解密。通过这些措施,可确保用户的隐私得到充分保护,增强用户对生成式AI的信任。
企业伦理委员会的组建是科技伦理审查制度的核心。其组建标准应涵盖多方面,成员需包括技术专家、伦理学家、法律专家等,以确保从不同角度对生成式AI的研发和应用进行审查。伦理委员会应制定详细的审查流程和标准,对AI项目的各个环节进行评估,包括数据使用、算法设计、应用场景等。
第三方认证机制可作为企业伦理审查的补充。专业的第三方机构具有更广泛的行业经验和专业知识,能够提供客观、公正的评估意见。例如,与NCMEC合作,引入其CSAM检测系统,可有效检测AI生成内容中是否包含儿童性虐待材料,保障内容的安全性。
RLHF价值观对齐也是重要实践。通过强化学习从人类反馈中学习,使AI的输出符合人类的价值观和伦理标准。企业应建立完善的价值观评估体系,对AI的输出进行持续监测和调整。通过科技伦理审查制度的建设,可确保生成式AI在符合伦理规范的前提下健康发展。