ChatGPT 推出以来迅速火遍全球,注册用户连续闯关,已成全球最受用户青睐的应用,但推出伊始它的安全性争议也伴随而来。
上半年,意大利个人数据保护局(DPA)宣布禁止使用聊天机器人ChatGPT,限制OpenAI处理意大利用户信息数据,同时对其隐私安全问题立案调查。此举引发了欧洲其他国家的关注,法国、德国、爱尔兰等国家都已开始准备效仿意大利的做法,加强对ChatGPT的监管。
未来生命研究所(Future of Life Institute)也公布了一封公开信,呼吁所有 AI 实验室立即暂停训练比 GPT-4 更强大的 AI 系统,暂停时间至少 6 个月。马斯克、苹果联合创始人 Steve Wozniak、Stability AI 创始人 Emad Mostaque 等上千名科技届知名人物和 AI 专家已经签署公开信。该公开信写道,广泛的研究表明,具有与人类竞争智能的人工智能系统可能对社会和人类构成深远的风险。这一观点得到了顶级人工智能实验室的承认。
中国支付清算协会也发布了关于支付行业从业人员谨慎使用ChatGPT等工具的倡议。其中提出,支付行业从业人员要遵守所在地区的网络使用规定,正确认识ChatGPT等工具的机遇和风险,全面评估使用ChatGPT等工具处理工作内容的风险,依法合规使用ChatGPT等工具;支付行业从业人员在使用ChatGPT等工具时,要严格遵守国家及行业相关法律法规要求,不上传国家及金融行业涉密文件及数据、本公司非公开的材料及数据、客户资料、支付清算基础设施或系统的核心代码等。
所以AI 真的不安全吗?
让我们来听听BenQGuru的AI助手(GuruAssistant)的回答:
AI的安全性是一个复杂的问题,需要综合考虑多个方面。以下是一些与AI安全相关的主要问题和考虑因素:隐私和数据安全:AI系统通常需要大量的数据进行训练和学习,因此隐私和数据安全是一个重要的关注点。确保数据的安全性和隐私保护是至关重要的,以防止未经授权的访问或数据泄露。偏见和歧视:AI系统可能受到数据偏见的影响,导致对某些群体或个人的不公平对待。这可能会带来严重的社会和道德问题。确保AI系统的公正性和无偏见是一个重要的挑战。透明度和解释性:AI系统的决策过程通常是复杂的,难以解释和理解。这给用户和监管机构带来了困难,因为他们无法理解AI系统是如何做出决策的。提高AI系统的透明度和解释性是一个重要的目标。安全漏洞和攻击:AI系统可能存在安全漏洞,使其容易受到恶意攻击和滥用。黑客可能试图利用这些漏洞来篡改数据、操纵决策或者获取未经授权的访问权限。确保AI系统的安全性和抵御恶意攻击是至关重要的。自主性和控制:一些AI系统具有自主决策和行动的能力,这引发了对控制和责任的问题。当AI系统具有自主性时,谁来对其行为负责?如何确保AI系统的行为符合人类价值观和法律规定?这些问题需要认真对待和解决。
尽管AI存在一些安全挑战,但通过合适的监管、技术解决方案和伦理原则的引导,可以降低潜在的风险,并确保AI的安全和可靠性。这需要政府、行业组织、研究机构和企业共同努力,制定相关政策和准则,并进行持续的监测和改进。
明基逐鹿 eHR也逐步引入了很多AI应用,比如流程机器人及简历自动识别等,在设计这些AI应用之初我们就特别注重安全性问题,在发布任何新系统之前,我们进行严格的测试,征求外部专家的反馈,并构建广泛的安全监控系统。使客户在享受AI的便利性同时不需要为系统安全性和数据安全性担心。
请您继续关注明基逐鹿