微信扫一扫
分享到朋友圈

Science组织了一场尖锐的Reddit问答,Yann LeCun的回答还是那么耿直

作者:机器之心 来源:机器之心 公众号
分享到:

02-19

选自Reddit

机器之心编译

机器之心编辑部


今日,AAAS 在 reddit 上组织了一场问答,谷歌、微软、Facebook 人工智能实验室的相关负责人一起回答了提问者的众多尖锐问题,话题包括量子计算、隐私、前沿研究方向、伪人工智能等。有趣的是,Yann LeCun 对量子计算与机器学习、伪人工智能等问题的回答相当耿直。机器之心对其中的部分问题进行了编译,感兴趣的读者可从文末链接查看所有讨论。


回答者:


  • Yann LeCun,Facebook 人工智能研究中心首席科学家

  • Eric Horvitz,微软研究院负责人

  • Peter Norvig,谷歌研究总监


问题 1:你认为对下一代而言,哪些工作将会被人工智能取代,哪些工作是安全的?我是作为一位经常给学生提供就业选择建议的高中教师提问的。很多人谈论人工智能对工作的颠覆时谈到的主要是驾驶汽车等方面,而排除了其它领域。我现在有一位计划成为飞行员的学生。我告诉他考虑一下无人驾驶飞机,但他认为这不是什么威胁。我告诉学生们进入贸易行业比较保险,尤其是需要大量流动性的贸易。另外还有哪些领域现在看来比较安全?


Peter Norvig:我认为更有意义的角度是看任务是什么,而不是着眼于职业。如果一位雄心勃勃的商业飞行员在 1975 年寻求建议,那么应该建议:你喜欢起飞和降落吗?未来很多年你都可以这样建议。你喜欢长时间稳定飞行吗?很遗憾,这个任务将几乎全部实现自动化。所以我认为大多数领域都是安全的,但你在任何工作中所做的任务组合将会发生变化,不同职业之间的报酬差异也将改变,而且每种工作所需要的人数也会发生变化。我们很难预测这些变化。举个例子,现在有很多人驾驶卡车。未来某个时候,大多数长途驾驶都将被自动化。我认为车里面仍还会有一个人,但他们的工作将更注重装卸货物和客户关系/推销,而不是驾驶。如果他们可以在车辆移动的时候在车里睡觉(终于可以了)和/或编排更大规模的卡车车队,那么你可能就会想我们所需的卡车司机更少了,但如果卡车运输的成本相对于铁路或海路运输下降了,那么需求也会增长。所以现在很难预测几十年后的事情,最好的建议是保持灵活性并为学习新事物做好准备——不管是某个职业内任务发生变化还是更换职业。


Eric Horvitz:人工智能的发展将会对经济中的劳动力产生多重影响。我相信某些改变会是颠覆性的并且可能会以相对快的方式发生——这样的颠覆可能会出现在驾驶汽车和卡车等工作上。其它影响还包括工作执行的方式和人们执行不同领域的任务的方式。总的来说,关于人工智能发展对工作分配和工作性质的影响,我的看法是正面的。我看到很多任务都得到了更复杂自动化的支持,而不是被它们所取代。其中包括艺术和科学探索领域内的工作以及需要精细身体操作的工作,另外还有很多工作总是需要人之间的相互合作和照顾——包括教学、指导、医疗照护、社会工作和抚养孩子成人。关于后者,我希望在这个日益自动化的世界里看到更显著的「关怀经济(caring economy)兴起并获得支持。


有人可能有兴趣了解近期一些思考未来状况的研究。这里有一份很有意思的研究,思考了机器学习进步在特定功能方面对工作的影响:http://science.sciencemag.org/content/358/6370/1530.full。我推荐这篇文章是因为这是一个很好的范例,能帮助人们了解如何将某些结构组合起来预测人工智能和工作就业的未来。


顺便一提:昨天在奥斯汀的 AAAS 上我们有个环节就是关于人工智能的进步对人类能力的增强和任务的变革的。


Yann LeCun:还有很长时间我们才能有机器人管道工、木匠、零杂工、理发师等等。一般而言,人工智能不会取代工作,但会改变工作。最终而言,人工智能会让每个工作都更高效。但需要人类创造力、交互能力、情感智能的工作很长时间内都不会消失。科学、工程、艺术、手工制作等创造性工作还将继续保留。


问题 2:目前很多机器学习研究似乎都转向了深度学习。1)这对机器学习研究的多样性会有负面影响吗?2)为了支持深度学习研究,需要将其他范式的研究例如概率图模型、支持向量机等完全抛弃吗?有可能这些模型在当前表现不是很好,但在未来会出现突破,正如深度学习在上世纪 90 年代的状况。


Yann LeCun:随着我们 AI 技术的成长,我的感觉是深度学习只是其中的一部分。在复杂的(可能是动态的)图中集成参数化模块并根据数据优化参数的思想并没有过时。在这层意义上,只要我们还没有找到不需要使用梯度来优化参数的高效方法,深度学习也不会过时。因此,深度学习并不足以构建完整的 AI。我认为定义动态深度架构(即按程序定义计算图,其结构随着新的输入而改变)的能力可以将深度学习推广为可微编程。


至于问题 2),深度学习和图模型之间并不存在对立。你可以这样使用图模型例如因子图,其中的因子是完整的神经网络。它们是互不相关的概念。人们曾经在深度学习框架之上构建概率编程框架。例如 Uber 的 Pyro 就建立在 PyTorch 之上(概率编程可以看成是图模型的推广,类似于可微编程是深度学习的推广)。事实证明在图模型中使用反向传播梯度进行推理是很有用的。当数据匮乏并可以手动特征化时,SVM/核方法、树模型等更好用。


Eric Horvitz:深度神经网络在分类和预测任务上的表现有很多亮点。我们也见证了目标识别、语音识别、翻译,甚至学习最优策略(结合强化学习思想)的准确率在不断提高。然而,AI 是一个很宽泛的领域,有大量潜在的分支学科,并且 AI 的机器学习分支也有大量的分支。


我们需要继续深度开发有潜力的 AI 技术(并结合各自的优势),包括概率图模型、决策理论分析、逻辑推理、规划、算法博弈论、元推理和控制论等已有的丰富成果。我们还需要将领域进行扩展,例如将有限理性模型推广到开放世界中研究智能体的限度。


问题 3:如何将任务特定的 AI 突破到更加通用的智能?目前我们看起来正花费大量的精力用于在围棋中赢得胜利,或使用深度学习执行特定的科学任务。这种进展很不错,但相比大多数人们心目中的 AI 来说还很狭隘。我们如何构建通用智能,使得可以适应任意的任务呢?我认为简单地集成数百万个任务特定的应用并不能构建通用的智能。


Yann LeCun:我认为,让机器通过观察来学习预测模型是通用人工智能(AGI)的最大障碍。人类婴儿和很多动物似乎都可以通过观察世界并与其交互获得一种常识(虽然相比我们的强化学习系统,他们只需要很少量的交互)。我的直觉是,大脑中有很大一部分是预测机器。它训练自身以预测所有事物(从已见事物预测未见事物)。通过学习预测,大脑精心构建了层次化的表征。预测模型可以在和世界的最小量交互中用于规划和学习新的任务。目前的「无模型」强化学习系统,例如 AlphaGo Zero,需要与「世界」进行大量的交互来学习(虽然它们学习得很不错)。它们在围棋或象棋中表现得很好,但这样的「世界」很简单、很确定性,并且可以同时使用多个计算机快速运行。和这样的「世界」交互很容易,但无法推广到现实世界中。你不能在驾驶汽车时通过 5 万次撞击学习「不能撞击」的规则。人类甚至只需要一次经验就能学习到这样的规则。我们需要让机器学习这样模型。


Eric Horvitz:没错,目前的人工智能现状就是:智能而狭隘的「学者」。


我们对于人类智能的认识还远远不足,其中包括人类如何在开放世界中学习(以无监督的方式)、我们形成「常识」的机制以及我们轻易地泛化到新任务的秘密。


我认为有两种很重要的方法可以促进对通用智能的发展:一种方法是将多种特定应用有机结合起来,然后探索这些应用的关联性问题;另一种方法是集中研究一种核心方法论例如 DNN,然后探索其中更加普遍的结构。有一篇论文可以为我们提供一个有趣的通向 AGI 的框架和方向:http://erichorvitz.com/computational_rationality.pdf


问题 4:我是一个正计划转向 AI 研究的核工程/等离子体物理学研究生。


  • 关于 AI 领域:AI 研究的下一个里程碑会是什么?目前为了达到这些里程碑的挑战是什么?

  • 关于该领域的专业技能发展:我需要具备哪些关键技能/知识才能获得成功?你对刚入门的人有什么一般性的建议或推荐学习资源吗?


Yann LeCun:下一个里程碑:深度无监督学习、可以进行推理的深度学习系统。无监督学习的挑战:学习世界的层次化表征,以理解变化的解释因素。我们需要让机器学习如何在不完全可预测的世界中进行预测。关键技能:对连续型数学(线性代数、多变量微积分、概率统计、优化学等)的掌握/良好直觉。熟练的编程技能。熟练的科学方法论。总之:创造力和直觉。


Peter Norvig:我对能真正理解人类语言并能进行实际对话的助理很感兴趣,这将是很重要的里程碑事件。其中很大的挑战是将模式匹配(我们对此很在行)结合抽象推理和规划,目前我们只能在非常形式化的领域如象棋中才能做的很好,而在现实世界中还远远不够。


作为物理学家是你的一大优势,有很适合的数学背景以及实验、建模和处理不确定性、误差的思维。我见识过很多物理学家在这个领域做出很棒的工作。


问题 5:有哪些场景背后是人工智能支持的而我们却未意识到?举个例子。


Eric Horvitz:有相当一些人工智能系统和服务「位于引擎盖下」。我最喜欢的一个例子是我们在微软研究院与 Windows 团队紧密合作所得到的一个成果,这项进展叫做 Superfetch。如果你用的是 Windows 机器,你的系统就在使用机器学习来学习了解你的工作模式和下一步行动(这个过程是隐私的,在本地进行),它会持续地进行预测,通过预加载和预存取应用来最好地管理内存。因为你的机器会在幕后推理你的下一步动作,而且很快还将能推理你在一天的某个时候和一周的某天会做的事,所以速度会更快,非常神奇。这些方法一直在运行,而且自在 Windows 7 上的第一版以来一直在越来越好。微软研究院的人与 Windows 团队组成了一个联合团队共同努力——使用真实负载来进行实验让我们发展很快,能帮助我们选出最好的方法。


Yann LeCun:过滤令人反感的内容、使用卫星图像构建地图、帮助内容设计师优化设计、使用紧凑的特征向量来表示内容(图像、视频、文本)以便索引和搜索、图像中文本的识别……


Peter Norvig:任何有数据的地方,都有优化的可能性。有些事情你可能已经知道了。另一些则永远不会被用户注意到。比如说,我们做了很多工作来优化我们的数据中心——我们如何构建数据中心、我们如何让工作负载流过它们、我们如何冷却它们等等。我们应用了各种各样的技术(深度学习、运筹学研究模型、凸优化等);你可以自己决定将这些看作是「人工智能」或「只是统计学」。


问题 6:我是一位博士学生,我没有足够多的资金来投入多个 GPU 和大型(就计算能力而言)深度学习平台。作为一位学生,我有发表论文的压力(我的研究领域是计算机视觉/机器学习),而且我知道我没法在论文截至日期之前足够快地在我的「新式模块的」网络上测试完所有超参数。而在 Facebook/谷歌等企业进行研究的人有多得多的资源可用,可以快速出成果发论文。在会议上,我们得到的评价标准都是一样的——所以我毫无胜算。如果我可以按时做完实验然后发表的唯一途径是在大公司做实习生——你们难道不认为这有很大的问题吗?我住在美国,还好一点。其它国家的人又该怎么办?对于解决这个问题,你们有什么想法?


Peter Norvig:我们可以提供支持:你的教授可以申请谷歌云:https://cloud.google.com/edu/,其中包括 1000 个 TPU。


如果你的目标是开发一个端到端的计算机视觉系统,那么作为一个学生,你将难以与公司竞争。这不是深度学习领域独有的情况。我记得我在读研究生的时候有一位做 CPU 设计的朋友,而且他们知道他们无法与英特尔竞争。要完成一个大型工程开发项目,需要数百人开发数百个组件,如果有任何一个组件失败了,你就不是最领先的。但一个学生可以有更好地实现一个组件的新想法并将其展示出来(也许可以使用开源模型并展示由你的新组件所带来的改进)。


Yann LeCun:我有两个头衔:Facebook 的首席人工智能科学家和纽约大学教授。我在纽约大学的学生可以使用 GPU,但没有在 FAIR 做实习生所能使用的 GPU 多。你可不要让自己与大型行业团队直接竞争,而且有很多不竞争也能做出好研究的方法。很多(甚至大多数)的创新思想仍然来自于学术界。比如说,在神经机器翻译中使用注意机制的思想来自 MILA。这种方法像飓风一样席卷了神经机器翻译领域,并且在几个月之内就得到了主要公司的采纳。在那之后,Yoshua Bengio 告诉 MILA 的成员停止竞争数据更好的翻译结果,因为与谷歌、Facebook、微软和百度等公司竞争是没有意义的。几十年前,在字符识别和语音识别领域也曾发生过这样的事。


Eric Horvitz:微软和其它公司正在努力实现人工智能的民主化,开发工具和服务来帮助大公司之外的人轻松地在人工智能领域做出伟大成就。我能理解有关计算的问题会出现。在各种项目中,你可能会发现 Azure for Research 和 AI for Earth 很有价值,这能帮你获取微软的计算资源。


问题 7:作为一名 ML 从业者,我对最近漫天遍野的「fake AI」越来越厌倦。比如:

Sophia,一个设置预编答案的木偶,却被呈现为活生生的有意识的存在。涉及机器学习的工作机会中 95% 并不是 AI 职位,只是加上了「AI」或「机器学习」这种流行词来使该公司看起来更有吸引力罢了。


对我来说,世界上只有很少的几千人从事机器学习工作,但是却有 100 倍的人在假装做 AI。这是一种病,它伤害了所有人,还抢走了近期 ML 真正做出的成果。我们能采取什么措施制止这种行为吗?


Peter Norvig:不要担心。不只是 AI 领域有这种情况。每次出现一个热词,一些人就想用不恰当的方式利用它。AI 和 ML 如此,「有机」(organic)、「无麸」(gluten-free)、「范式转移」(paradigm shift)、「瓦解」(disruption)、「中枢」(pivot)等也是如此。他们只能得到一些短期的注意力,最终会消失。


Eric Horvitz:我同意 Peter 的观点。看到大家对 AI 研究的热情很棒,但是确实存在一些过热、误解和隔阂,就像那些以各种方式跳上风口的人一样(包括给所有事情都加上一个「AI」:-))。


马克·吐温有一句名言:「历史不会重复,但会押韵。」在 1980 年代中期专家系统时代也成出现 AI 过热的场面。1984 年,一些 AI 科学家提醒大家:被误导的狂热和无法达到期望可能导致兴趣和资金的崩溃。确实,几年后,我们进入了一些人所说的「AI 寒冬」。我不认为这次也必然出现这样的结果。我认为这次大火中会有炽热的余烬,闪耀着推动 AI 领域前进,但是 AI 科学家继续教育多个领域中的人们关于我们确实能够达到的成果也很重要,以及自「人工智能」一词首次使用这 65 年来我们努力试图解决的困难问题。


Yann LeCun严肃的 ML/AI 专家在看到这种情况时,不用犹豫可以直接大喊「bull shit」。我自己一直是这样做的。是的,「AI」已经成为一个商业热词,但是今天 AI/ML 领域仍有大量严肃、超酷的工作。


问题 8:贵司会为保存竞争优势而保留一些算法/架构机密吗?我知道数据集会带来很大的竞争优势,那么算法也会吗?也就是说,如果你的公司在某个算法/架构上取得了突破,比如下一代 CNN 或下一代 LSTM,你们会为了科学发展而公开它呢,还是会为了保存竞争优势而保留机密呢?


Peter Norvig:截至目前,你可以看到我们这三家公司(以及其他公司)发布了很多通用算法,我认为我们也将继续这样做。我认为原因有三:首先,我们相信科学发展;其次,竞争优势来自于我们使用算法所做的艰辛工作以及围绕创造某个产品所有的过程,而非核心算法本身;第三,你无法将它们作为机密保存,如果我们能想到,同一研究社区的其他人也能想到。


Yann LeCun:在 FAIR,我们公开我们所做的所有事情。原因如下:


(1)正如 Peter 所说,「我们相信科学发展;竞争优势来自于我们使用算法所做的艰辛工作以及围绕创造某个产品所有的过程,而非核心算法本身。」我还要加一句,竞争优势还来自于将算法/模型转换成产品或服务的速度。

(2)今天 AI 的主要问题不是一家公司是否领先于另一家(没有一家公司可以永远大幅领先),而是 AI 领域本身需要在一些重要方向实现快速进展。我们都不希望孤独地去解决这一问题,我们需要整个研究社区合作来实现进步。

(3)只有允许科学家发布成果,你才能吸引到做优秀的科学家;只有以其对更广阔的研究社区的学术影响力来评估他们(至少占一部分),你才能保留住他们。

(4)只有告诉他们必须发布成果,才能得到可靠的研究结果。如果不打算公开结果的话,人们通常会更加草率。

(5)公开创新性研究有助于将该公司塑造成领导者和创新者,这有助于招募最优秀的人才。在技术行业中,吸引最优秀人才的能力意味着一切。


Eric Horvitz:自 1991 年设立以来,微软研究院就是一个开放的研究实验室。我们实验室的一个重要基础就是研究人员自己决定是否发布研究成果、共享 idea 与学识,这个基础深入我们实验室的 DNA。看到其他公司也在此方向前进,我觉得非常棒。在 Peter 的基础上,我想说的是,伟大的创新和 IP 是围绕不同领域实际产品化实现的细节开发出来的,这些可能无法像核心技术进展那样共享出来。


问题 9:量子计算的进步会驱动人工智能背后的研究吗?你如何看待未来二者的融合?


Peter Norvig:我想要做的很多事情都没有量子计算的帮助。我经常想要通过一个相对简单的算法来处理海量文本,而量子计算对此并无帮助。


然而,量子计算可能有助于更高效地搜索深度网络的参数空间。我不知道是否有人做出了这样的量子算法,不用考虑硬件机器能否实现它,但理论上可能是有帮助的。


Yann LeCun:驱动(driving)?当然不。对我而言,根本不清楚量子计算能对人工智能有任何影响。在短时间内更不可能。


问题 10:传统统计模型的价值在于易于理解模型的行为、如何得出结论以及推断/预测的不确定性。而新型深度学习方法在预测方面取得了很好的成果,但我认为它们通常是「黑箱」。目前我们对 ANN 等模型的内部机制有多大程度的理解呢?以及您认为理解其内部机制的重要度如何?我认为这在模型用于制定重大决策时尤为重要,比如汽车驾驶或临床决策。


Peter Norvig:这是当前研究的重要部分。你可以从 Big Picture 博客 或 Chris Olah 的 博客看到谷歌为此努力的多个例子。我认为理解的难度更多地来自于「问题」本身的难度,而非解决方案技术的难度。二维线性回归很好理解,但它对于不具备好的线性模型的问题来说并无太大用处。类似地,人们说随机森林或标准 Python/Java 代码中的「if/then」规则易于理解,但是如果真的易于理解,代码就不会有 bug 了。而代码往往存在 bug。因为这些易于理解的模型同样易于出现确认偏差(confirmation bias)。


我更倾向于不只用「理解」(understanding)来描述这件事,还有「值得信任」(trustworthiness)。当我们可以信任一个系统时,尤其是该系统作出重大决策时,可以思考以下多个方面:


  • 我能够理解该代码/模型吗?

  • 它是否长期在大量示例上得到验证?

  • 我是否确信世界不会变化,将我们带到模型从未见过的状态?

  • 该模型是否能够抵抗对抗攻击?

  • 该模型是否能够抵抗退化测试(degradation test),即我们故意削弱其中的一部分,查看其他部分如何运作。

  • 是否存在类似的技术,在过去被证明是成功的?

  • 该模型是否能够被连续监控、验证和更新?

  • 该模型外部存在哪些检查?输入和输出都被其他系统检查吗?

  • 我使用哪种语言与该系统交流?我可以询问它在做什么吗?我可以向它提建议吗?如果它犯了错,我只能提供数千个新的训练样本,还是可以说「不,你把 X 弄错了,因为你忽略了 Y」。

  • ……


这是一个伟大的研究领域,我希望能看到更多这方面的研究成果。


问题 11:你觉得 Capsule 网络怎么样?除了 MultiMNIST,你们成功地在其他数据集上应用过它吗?输入更多数据时,它能够替代 CNN 吗?


Yann LeCun:这样的想法在大型数据集上实践需要时间,Capsule 是个非常酷的想法。Geoff Hinton 已经思考了几十年(例如,他的学生 Rich Zemel 的博士论文主题是 TRAFFIC 模型)。找到在 MNIST 上有效的方法已经花费他很多时间了,所以使 Capsule 在 ImageNet 数据集(或者别的数据集)上有效也要花费一些时间。此外,还不清楚它是否有性能优势,在训练样本数量上的优势在实践中是否有效。Capsule 网络可被看作是一种以特殊方式做池化的卷积网络。


问题 12:我是个 13 岁的学生,我喜欢用 JS 和 Python 自己做游戏和编程。我想要做自己的音乐和机器学习程序,对我这样的年轻开发者有什么建议吗?


Yann LeCun:再学习学习数学和物理。


Peter Norvig:除了学习,做一些开源项目。要么自己在 Github 上开源一个,或者参与到已有的有趣项目中。


问题 13:Peter,谷歌一直在研究辅助识别图像的人工智能,效果也相当好,但仍有奇怪的地方。去年我用你们的 API,输入一张猫的图像,很简单,效果也不错。但因为尾巴从头上面露了出来,API 也猜测是它是一只独角兽。这种错人类不会犯,而人工智能会,特别是输入 2D 图像时,你觉得 AI 会克服这种问题吗?


Peter Norvig:识别图像也就这几年才做到的,发展很稳定,但就像你说的,即使在一些任务上人工智能有超越人类的表现,它也会犯一些尴尬的错误。随着我们有更多经验、更多数据,这种情况会有所改进,且有希望做迁移学习,以便于不用从头开始做每个模型。相比于静态图像,视频可能有更大优势,这一点提的非常好。我们的计算能力呈指数级增长,但还没达到能够输入大体量视频的程度。等到能做到的那一天,你会看到极好的进步。


问题 14:能定义下「专家系统」与「人工智能」吗?你研究更多的是专家系统还是人工智能,或者二者都有?你研究专家系统或者人工智能的目标或者成功标准是什么?


Peter Norvig:我认为专家系统是通过采访一位专家,把他所知道的进行编码的一种程序,包括所在领域的本体论、关于要做什么、何时达到目标的程序性知识。然后,给定一个新目标,程序可尝试模仿专家的行为。专家系统在 1980 年代达到顶峰。


相比之下,规范系统只尝试做「正确的事」,换言之就是「最大化预期效用」,不关心对专家行为的模仿。


此外,「机器学习」系统是通过收集来自全世界的数据建立的,而不是通过手动编码规则。


今天,我们专注于规范的机器学习系统,因为事实证明它要比专家系统更稳健。


问题 15:你们明显在致力于人类最终的衰败。你们为什么这么做,有什么理由?


Yann LeCun:相反,我们致力于让人类变得更好。人工智能是对人类智能的扩充。火、弓箭、农业的出现让人类衰败了吗?


原文链接:https://www.reddit.com/r/science/comments/7yegux/aaas_ama_hi_were_researchers_from_google/



本文为机器之心编译,转载请联系本公众号获得授权

✄------------------------------------------------

加入机器之心(全职记者/实习生):hr@jiqizhixin.com

投稿或寻求报道:editor@jiqizhixin.com

广告&商务合作:bd@jiqizhixin.com

阅读9027
science 
举报0
关注机器之心微信号:almosthuman2014

用微信扫描二维码即可关注
声明

1、头条易读遵循行业规范,任何转载的稿件都会明确标注作者和来源;
2、本文内容来自“机器之心”微信公众号,文章版权归机器之心公众号所有。

评论
更多

文章来自于公众号:

机器之心

微信号:almosthuman2014

邮箱qunxueyuan#163.com(将#换成@)
微信编辑器
免责声明
www.weixinyidu.com   免责声明
版权声明:本站收录微信公众号和微信文章内容全部来自于网络,仅供个人学习、研究或者欣赏使用。版权归原作者所有。禁止一切商业用途。其中内容并不代表本站赞同其观点和对其真实性负责,也不构成任何其他建议。如果您发现头条易读网站上有侵犯您的知识产权的内容,请与我们联系,我们会及时修改或删除。
本站声明:本站与腾讯微信、微信公众平台无任何关联,非腾讯微信官方网站。