因为这可能导致歧视或其他形式
Posted: Sun Mar 23, 2025 6:35 am
人工智能系统不应基于种族、性别、政治派别、宗教等伤害个人或群体,的不公正。 安全 随着人工智能系统收集和分析的数据越来越多,个人信息可能会被恶意行为者滥用。一些有害的做法包括: 自动身份盗窃:恶意行为者使用人工智能收集和分析来自社交媒体账户等在线来源的个人数据,以创建虚假身份来获取经济利益。 预测分析:恶意行为者使用人工智能根据个人位置或购买历史预测个人的行为或偏好,然后针对他们发送不必要的广告或服务。
监视:恶意行为者使用人工智能面部识别技术在未经个人知情或同菲律宾电报放映意的情况下追踪个人。 操纵舆论:恶意行为者使用人工智能驱动的算法传播有关个人或团体的虚假信息,以影响舆论或影响选举。 数据挖掘:恶意行为者使用人工智能驱动的算法从毫无戒心的用户那里收集大量个人数据,用于可耻的营销或其他邪恶活动。 组织需要确保采取适当的安全措施,以确保用户数据(以及所有数据)的安全和私密。
我们应该担心势不可挡的生成式人工智能吗?还没有。这些系统很神奇,但它们的范围仍然非常有限。尽管如此,网络安全中的所有“最佳实践”都必须认真应用于人工智能(例如,多因素身份验证、加密、使用人工智能检测网络流量异常等),因为它可以比人类更快地产生威胁。例如,人工智能可以获取泄露的密码并尝试将其与受害者可能工作的公司进行匹配——就像任何其他网络攻击一样,不同之处在于它只需人类所需时间的一小部分即可完成。
监视:恶意行为者使用人工智能面部识别技术在未经个人知情或同菲律宾电报放映意的情况下追踪个人。 操纵舆论:恶意行为者使用人工智能驱动的算法传播有关个人或团体的虚假信息,以影响舆论或影响选举。 数据挖掘:恶意行为者使用人工智能驱动的算法从毫无戒心的用户那里收集大量个人数据,用于可耻的营销或其他邪恶活动。 组织需要确保采取适当的安全措施,以确保用户数据(以及所有数据)的安全和私密。
我们应该担心势不可挡的生成式人工智能吗?还没有。这些系统很神奇,但它们的范围仍然非常有限。尽管如此,网络安全中的所有“最佳实践”都必须认真应用于人工智能(例如,多因素身份验证、加密、使用人工智能检测网络流量异常等),因为它可以比人类更快地产生威胁。例如,人工智能可以获取泄露的密码并尝试将其与受害者可能工作的公司进行匹配——就像任何其他网络攻击一样,不同之处在于它只需人类所需时间的一小部分即可完成。