谷歌最新AI模型PaliGemma 2具备情感识别功能,引发专家担忧
时间:2024-12-11 15:20
小编:小世评选
近日,谷歌正式发布了其最新的人工智能模型系列PaliGemma 2,该模型的主要亮点在于其具备了情感识别的能力。这一功能能够分析图像中的情感,并基于此生成描述或回答关于照片中人物的情感状态的问题。这一情感识别能力虽引发了业内的广泛关注,却同时也让众多专家表示了深切的担忧。
据谷歌官方网站的介绍,PaliGemma 2不仅能从图像中识别物体,更能够进行情感识别,尽管这一功能并非开箱即用,仍需进行必要的微调。近年来,许多科技公司尝试开发情感识别技术,虽然有一些声称取得了重大突破,但关于情感识别技术的可行性和准确性仍然存在较大争议。传统心理学通常认为人类的情感可以划分为基本的六种:愤怒、惊讶、厌恶、喜悦、恐惧和悲伤,后续的研究却表明,人的情感体验是极为复杂的,难以用简单的模型进行全面准确的识别。
伦敦国王学院的研究员迈克·库克(Mike Cook)指出,情感识别在一般情况下并不可行。虽然人们可以通过观察他人的表情来推测他们的情绪,但这种推测是片面和主观的,无法对情绪检测提供全面且精准的解决方案。他进一步补充道,现有的面部分析技术可能会对某些表情(如微笑)产生偏见,而一些研究显示,情感分析模型在对不同种族面孔进行情绪判断时存在不公,尤其是黑人面孔往往被错误地评判为呈现更多的负面情绪。
谷歌方面对此回应称,PaliGemma 2经过“广泛的测试”,其在人群偏见方面的表现得到了评估,结果显示该模型在“毒性和粗俗内容”的处理上低于行业基准。但令专家们感到不安的是,谷歌并未公开具体的测试基准,也没有清楚说明测试的具体内容。谷歌所提到的唯一基准是FairFace,这是一个包含数万张人像的面部数据集,然而一些研究者明确指出,FairFace存在着偏见,无法代表多元化的种族群体。
AI Now研究所的首席AI科学家海迪·克拉夫(Heidy Khlaaf)强调,解读情绪是一项极其主观的任务,情感识别不仅仅依赖于视觉工具,更深深嵌入人们的个人和文化背景之中。她警告道,如果情感识别是基于某些不科学的假设,这种能力可能会在执法、人力资源和边境治理等领域被滥用,进而加剧对边缘化群体的进一步歧视。
值得注意的是,欧盟新版《人工智能法案》中已明确禁止在教育和招聘等场合使用情感识别系统,唯独在执法机构的使用上进行了放宽。这显示出政策制定者对情感识别技术的潜在风险的深刻认识。
,谷歌在其发布声明中表示对PaliGemma 2的“表征危害”测试充满信心,并强调已经进行了全面的伦理和安全评估。在技术不断演进的背景下,情感识别的未来仍然充满不确定性。在AI技术飞速发展的同时,如何制定相应的伦理标准,确保技术的公平、透明及安全,成为了亟待解决的重要课题。
随着PaliGemma 2的发布,行业内的情感识别技术再次成为焦点,技术的进步伴随着伦理的挑战,如何平衡二者之间的关系,将是每一个科技公司必须认真对待的重要议题。随着对该技术的关注度日益增加,社会各界都迫切希望能探索出一种负责任的方式来使用这些先进的人工智能工具,以确保其造福全人类,而非引发更多的社会分歧与不公。