Saturday 12/10/2022  998 对《Die Suddenly》的质疑声音 推特内部专家爆料

对《Die Suddenly》的质疑声音

我绝对不是对某一个人的脑残粉,所以,在听到和看到有些道理的质疑时就会分享给大家。

比如今天看到一个对《Die Suddenly》纪录片的质疑

【关于隔壁疫苗后血管充满血栓的帖子,看这里

看了原帖,颇为震惊,放狗简单搜了下,一下就到这篇雅虎针对那个Die Suddenly的辟谣新闻,个人觉得相对客观。】

我也去看了一下这个yahoo给出的辟谣贴,里边提到了很多其他主流媒体的辟谣贴,那些个已经失去信用了,不大可信,因为他们都在说mRNA疫苗是安全有效的,拯救了无数人的生命。不可否认,它是会让人体做出应激反应产生抗体的,但在没有感染的时候,产生那么多抗体干嘛?就像是人要对付入侵的敌人,在没有敌人的时候,己方做出全国动员、枕戈待旦,几个月后就全民疲惫、弹尽粮绝了,这时候敌人突然来袭,就会被打得毫无还手之力。

而且,辉瑞本身的文件里的数据就已经说明了它极不安全,人们打了之后照样被感染,照样进ICU,照样死亡,也就说明了它也不有效。现在说它拯救了百万人的性命,而不提它同时祸害了多少性命,我只能呵呵了。

至于那些比往年更多的死亡,既可以甩锅给病毒,又可以谴责疫苗,你信谁的?

【雅虎这篇基本上逐条反驳了原视频里的主要claims,给我感觉Die Suddenly视频内容有两大问题:移花接木和断章取义。简单举几个例子,剩下就见仁见智了!

比如那个非常惊悚的的从活人(有心跳片段)里拉出一大块“血栓”的片段实际上是19年4月就在youtube里的一个视频,是一个肺栓塞移除手术,见1:20起(画面血腥慎点)。

至于从尸体里抽出的血条,那个可以由任何因素造成,比如实体冷藏之类的。杀过鸡的话没准有些经验。

很多其他采访片段和数据内容都是有其背景和限制条件的,但是在Die Suddenly里剪辑后全部归于疫苗,这个显然有悖科学原则

另外一个小细节是视频有个放电影一般闪现各个场合人们猝死片段,其中有几个中国片段一个外卖小哥猝死,这个就离了大谱,中国外卖小哥什么时候打上mrna疫苗了

Anyhow,总的来说,mrna疫苗安全性确实需要时间检验,质疑精神是需要的。但是这个Die Suddenly视频内容确实过分夸大了风险,当然也许他们希望籍此引起重视是实话说编造内容有点过分

本帖不去讨论疫苗安全性,只是辟谣视频内容的移花接木和断章取义

个人认为疫苗安全性已经在全美推广mRNA后的引起部分低血小板病人身上体现了:确实有副作用,也确实看基因,可能甚至涉及权钱交易。但是远不是这个视频里耸人听闻的程度,全球mRNA注射者数亿人,按照那些说“我认识的人里就3个猝死”,这绝对值得多高,脚趾头想想。】

我觉得轻度副作用是显而可见的,严重的副作用很难说清楚。因为很多人多多少少都有基础病,所以去世一般也不会引起人们的怀疑。

这也是问题所在。一方在使尽甩锅,说不是打疫苗出了问题,另一边坚持就是疫苗的锅,你甩不掉。专家都这样坚持己见的话,大家就不知道听谁的好了。那么就会出现两级分化,相信疫苗的就会恨另一边不打疫苗的,而质疑疫苗的就会恨铁不成钢,觉得另一边的人被洗脑成无脑和脑残了,被人卖了还在帮着数钱。

所以,我根本就不打针,杜绝天天怀疑自己打针出了问题这个可能性,虽然二手疫苗也有害,但毕竟没有直接打针造成的伤害大。但也不拦着别人打针,免得打针没出问题,反而被拦住的人有了心理阴影,出问题还觉得是没打疫苗才这样。

就像帅哥说的:大家都是成年人,不需要你去说教。你就少说两句吧!

我只是想给他们提供一下另一面的说法,只有在信息齐全、两面都了解的情况下做出的决定才是理智的决定,这是我给大家分享信息的原意,绝对没有逼迫大家别去打针,虽然这确实是我自己的愿望。

这个猝死的纪录片是Stew Peters团队制作的,低级黑小明一直说他是受控的反对派,说他虽然很多时候说的是真相,但偶而掺些沙子人们就很不容易注意到。

这也是受控反对派的可恶之处,你这边还没意识到被骗,到处散播他的材料时,幕后黑手那边就开始抓住这些沙砾进行辟谣了,弄得相信他而传播他的东西的人就成了传谣的人,是不可信的。那么这个从油管视频里截取的片段算不算他掺的沙子?他是不是受控的反对派?

我好久没看他的视频节目了,前两天过去一看,他最新的一集节目正在更另一位医学专家一起批斗马隆博士,就是那位号称自己才是mRNA技术发明人的人。他们说他是个独裁,别人不听他的就不行,他带风向,从不质疑mRNA不安全,还在建议老年人去打。

在这个信息不全的社会环境下,很少有人能考虑清楚,所以,我不会谴责任何台面上的人,只有那些藏在阴暗处的幕后黑手们才知道他们的真实目的,才知道这些病毒、针剂、或支持或反对的行为里暗藏着什么杀机,其他人都是他们的棋子而已,有些人是被心中的情绪所驱动,有些人是被权势地位和金钱而驱动,如此而已。

推特内部专家爆料

昨天有个媒体人Kristen Ruby也出来写了一长串的推文,援引推特内部专家的说法,解释推特的审查是如何进行的。

我直接上浏览器翻译后的截图:

鸟粪是指存在数据库里的原始数据。

按照我的专业理解,就是把用户数据放在一些数据库的table里,这些table的一些column是可以用来做标记用的,可以指明根据算法对这些推文或者推主做什么事情,还可以用来验证算法是否达到了预期结果。

帅哥曾经在推特里干了三四年,我问他:推特员工能看到用户的私信吗?

他说:原则上是不能看的。

我问:技术上呢?

他不得不承认技术上他们程序员可以看到任何数据,尤其是像他这样专门做底层数据库查询优化工作的。

码工只提供技术支持,能封谁还真的是上头说了算。

帅哥在的时候,他们应该还没有开发AI模型,那会儿公司才刚刚上市。

影子封杀被推特定义为:帐号还活着,别人看不到他的推文,也就是说推主推给了稀薄的空气。

怪不得多西在听证会上可以信誓旦旦地表示他们没有影子封杀,双方想的影子封杀根本就是两个概念。另一方指的的是偷偷摸摸限制帖子的观看量。

对粉丝量很多的大V来说,就是另外一套操作:你的粉丝可以看到你的推文,但别人就搜索不到,也不会上热搜,也不会被推荐给其他人。

这里也提到了,就是这样的不同的定义,他们才敢大言不惭地说他们没有影子封杀任何人。对他们来说,他们对散播不实言论的人和帖子是直接封杀,好不掩盖。

这相当于说那些封杀都是打入推特内部的FBI特工们干的。

【不。

 严重孤立的数据。 我实际上只是计算违规次数,看看我们的算法执行得有多好。

 等一下。 这是内容审核的一部分。 技术上称为 H COMP

 所以他们意识到了这一点。 但不是我

 很少有员工知道

 前者那个讨论圈里的经理们就像“什么?”】

上层故意表现出一样懵逼?还是说他们真的不知道底层是如何实现的?

推特认为的审查和大众认为的审查是脱节的。

推特认为他们都是公开的,其实这些经常掩藏在博客贴文里。

这是相当技术层面的东西,推特的员工想要访问底层的数据库,需要提交LDAP访问权限的申请,一旦通过,他就可以访问所有的数据库里的table了,而言论审查的table的schema是叫像twttr-bq-political-misinfo,我觉得这个schema的名字起得太恰当了,码工也知道他们就是为了政治(political)言论审查,而不是真正的misinformation(虚假信息)。

访问这些数据有两层。一层是访问这些数据的快照,需要先申请访问权限,这部分他们是有层层访问记录的。但是,你一旦有了访问权限,你就可以访问数据本身,而不是那些快照,对数据本身的访问是没有记录的。

这不就是说有哄骗大众或者是对付审查的一层么?我估计这个技术人员要悬了,这是透露了多大的商业机密啊。

这段话的意思是他们是有一些用来审查言论的词汇的,用于AI模型的,这些词汇参考了很多人的意见,包括政府部门、情报人员、人权组织等。【不过政府本身不就是假消息的大来源。不是吗?】

所以他们的政策部门的人,在York Roth和其他人的领导下,弄出了他们自己的词汇表。

但是,似乎他们也没作正确了。

比如说《2000头黄牛》这部纪录片本身是中性的,他们决定不做反应。但引用这个推文的推文包含了很多虚假信息,比如说大选舞弊,大选被偷,就引起了他们的怀疑,他们最后决定给这些推文一个0~300的数值,随机的,数值越大,代表假信息量越大。

数值150以上的就会选择性处理。

但也不是所有数值高的就被封禁了。

这就人为地、随机地封杀帐号和帖子了。如果有人抱怨他们封杀的话,他们还可以拿出那些数值高但没封的帐号来辟谣。真是阴险的做法。

这人是打进推特内部的白帽子么?还是说良心发现要揭露真相?

人工智能说白了就是一个对模型喂数据进行调教的过程。

模型猜测调教人的态度结果判断模型的自我调整
阳性阳性对,认可偏向
阳性阴性错,否决偏离
阴性阳性错,否决偏离
阴性阴性对,认可偏向

他们就是用新的数据不断训练AI模型对数据进行猜测,模型就会不断地往猜对的方向进行自我调整,这样准确率就会越来越高。

一个AI公司能否成功、成功的速率取决于它的数据量,如果每天都有大量的新数据喂给AI模型,这个AI模型就会快速完善。

像Google、脸书、推特、Amazon这样的大公司,每天的新数据那都是海量的,他们的AI模型一旦建立起来,将其训练成型用于使用,可能也就是几周的事情。

帅哥最近就在感慨,感觉码工的饭碗要岌岌可危了。因为,他们公司的代码编辑器也加入了AI模型,他在编辑代码的时候,他写了个开头,AI模型就给出了对后半句的猜测,猜他后边要写的是啥,他可以采用(肯定),也可以不采用(否定),刚开始否定的机会多一些,最近是AI猜得越来越准了,省时省力的同时,帅哥也觉得越来越亚历山大了,如果AI都会写代码了,还要码工干嘛?!

我以前还觉得人们可以从事不能被替代的行业,比如艺术。可现在画画机器人越来越厉害,连大师的画风都能模仿得以假乱真,还有什么不能被AI代替的?

这些被模型标注为150分以上的很可能就是“假信息”,table里有一个field专门用来记载人工验证,这一条推文是不是假信息。

将真实的数据按照4:1的比例分,4份用来训练模型,1份用来测试,如果测试结果满意的话,就可以用了。否则,要么换个模型,要么修改下现在的模型。

模型是从数据里自动学习的,所以叫机器学习。

AI模型可以用几种计算机语言编写。推特是根据FBI/CIA/DOD里的“专家”的意见来决定是不是假信息。算法是有偏见的,机器学习反映了这些偏见。

关于选举的每周重新训练一次,其他的每个月训练一次。

推文里不能提大选被盗,大谎言,新冠疫苗,否则就被追踪了。

什么时候揭露疫苗的大谎言?

主要是推特的言论审查部门下达重新训练模型的命令。2000只黄牛这样的词汇就被当成假信息来处理了。

马斯克回答这个贴文:值得一读。

今天推特文件第四批也出炉了,明天分享。