日前,网络上通过人工智能平台传出消息称,现任 SEC 主席加里·詹斯勒 (Gary Gensler)将在内部调查后辞职。
这个消息实际上只有一个来源,而且甚至不是此事的权威来源。但考虑到加密行业中对 Gensler 的仇恨气氛,这一消息被广泛报道,甚至被一些新闻媒体认为是真实的。
相反,正如从一开始就被认为的那样,这是假新闻,以至于福克斯商业网络 (FBN) 记者查尔斯·加斯帕里诺 ( Charles Gasparino)明确否认了这一消息。
发布后,用人工智能生成文本检测器ZeroGPT分析涉嫌文本,发现96.8%的文本是由人工智能工具生成的。
问题在于,各种生成文本的人工智能工具,例如著名的ChatGPT ,无法验证来源的可靠性。
因此,如果他们在网上找到来自他们认为可靠的来源的信息,他们无论如何都会相信它是真实的。
事实上,他们并不进行消息来源核实,更重要的是,他们不像有能力的记者那样寻求证实。这种情况完全没有得到证实,所以很可能是捏造的消息。
如果詹斯勒确实辞职了,美国证券交易委员会就会公开此事,因为政府机构如果不想招致政府本身的严重后果,就无法隐瞒其主席的辞职。
因此,在没有得到官方证实的情况下,该消息不应被视为真实。
事实上,一些报道该消息的报纸强调这是一种轻率行为,而不是证实的消息。再一次,基本的错误是未能真正验证原始来源是什么。
事实上,最初的来源并不是新闻报道中所写的那些了解事实的人,而是一个基于人工智能的文本生成软件。
因此,这实际上甚至不是谣言,而是任何意图和目的的假新闻。
然而,尚不清楚生成它的人工智能软件是从哪个来源获取的,但它的编程显然很糟糕,因为它无法仅从可靠的来源获取。
现在真正的问题应该是:谁捏造了这个假新闻?
所以,这当然完全是编造的新闻,但人工智能软件几乎没有发明它。这个人可能只是写了这篇文章的正文,而没有说明他所引用的文章的来源并不具有权威性。
也有可能最初的发明是由某个讽刺作者做出的,而人工智能软件无法区分讽刺和真相。
而且,值得注意的是,没有经验丰富的记者相信这一所谓的新闻报道,正是因为只需做最起码的核实,就可以发现根本没有任何证实。
只有人工智能软件和缺乏经验的人才相信这一点,即那些不知道如何进行适当验证以了解新闻报道是否来自可靠来源的人。
我想到的第二个问题是:人工智能产生的假新闻会成为问题吗?
对于非专家来说当然是肯定的,因为大多数人无法亲自验证新闻报道是否得到证实。
相比之下,对于经验丰富的记者来说,目前这应该不是问题,因为他们早已习惯于从已证实和核实的新闻中识别捏造的新闻。
然而不幸的是,现在的新闻质量往往是不够的,许多无能的业内人士在传播新闻时却无法验证其真伪。为了避免被人工智能愚弄,最好始终只依赖您认为可靠的来源,如果来自您不确定其可靠性的来源,则忽略其他所有内容。