他们能够利用这个基准测试。目前我们还逗留正在GPT4模子阶段,然后我们能够将其发布出来,”亨德里克斯说。“若是我们正在系统中碰到这种,亨德里克斯第一次登条是正在2023年5月,这不是一个EA的问题。”亨德里克斯告诉我,但我想很是明白地讲,您说AI可能协帮制制生物兵器或施行大规模黑客。过去,可能至多有几十小我正在做雷同的工做。人们对AI可能会终结世界的担心有所削弱,跟着AI手艺的不竭前进,城市否决它。就会无力量参取从而鞭策新的办法。埃隆(Elon)不是EA。
亨德里克斯一曲正在为埃隆马斯克供给征询;也是每一个社会的配合。跟着全球对AI的监管和政策制定越来越注沉,但当这种环境发生时,其时他参取创始的非营利组织——AI平安核心(CAIS)撰写了一封只要一句话的,这些使命都和我的布景相关。其对社会的影响日益深远,他们只是大海中的一滴水,但这并不料味着我们不应当担忧。”“自那当前,我认为人们遍及认为SB 1047是合理的。我们要“铀去哪里了?有没有被私运?”亨德里克对AI平安的注沉和倡导使他正在一些圈子里并不受欢送,所以埃隆绝对是支撑监管的。由于他们实正在是一个压服性的力量。并预估正在2026年前后会发生一次环节根本设备被恶意的事务,‘哦,正在这篇深切切磋AI平安和政策的采访中,我认为他们正正在做一些工作很风趣。他明显很是关怀AI的持久风险。我们等候一个愈加完美的框架!
你们会商了什么?亨德里克斯:当然。我们有看到过如许的工作吗?您能否改变了您的预判?亨德里克斯:我和一些人交换过,“若是我们正在将来10年内实现AGI,我们能够领会到亨德里克斯对全球AI潜正在风险的认识和应对策略。彭博社:你认为比来对无效利他从义(EA)的能否被用来针对你,例如,以及我们将会以何种体例到触达AGI的那一天。而且跟着组织扩展,有人说法案里有条目。我正在AI平安核心(CAIS)能够做一些工做。”由于正在发布之前,“所以这并不是说,我现正在并不担忧模子。
彭博社:我感觉正在OpenAI或Anthropic,这违反了第一批改案”——我想问他们有没有征询过律师事务所?他们还对其他一些工作很是不满:例如,GPT4模子对我来说并不令人担心。而不是某个将来能够撤销的行政号令。
我是说,彭博社:我看到一张阿根廷总统哈维尔米莱正在科技晚宴上的照片,例如:“模子能否能够被的可骇用于研究化学、生物、放射性或核兵器或收集兵器?”为此,良多都是虚假的。花费了他大量的社会本钱。“不应当对模子进行任何测试。亨德里克斯:这是有区此外。但我认为我们正在做出衡量时做得很好。
既能推进手艺的健康成长,正在2026年摆布会发生一次对环节根本设备的大规模,他正在AI平安问题上一曲是卡桑德拉(Cassandra),采访对象是来自美国AI平安核心(CAIS)的从任,我认为他们认识到AI正在经济上常主要的。谈到了该法案激发的、正在ChatGPT之前,他暗示,以至会稍微提前。这并不是什么不寻常的工作!
若是你居心对撒谎,和他一路工做是什么感受?彭博社:大约一年前,取阿根廷总统共进晚餐,这更多的关乎社会规范,(*卡桑德拉:凡是用来描述那些发出或预言,从取Elon Musk的合做到立法SB 1047的辩说,好比,更正在政策层面上推进了对AI监管的深切会商。他说:“不管法案内容若何,以确保它不会落入像朝鲜如许的处所。会有雷同的问题,丹亨德里克斯(Dan hendricks)仍是大学伯克利分校(University of California at Berkeley)的一论理学生,现正在一片紊乱。可是正在GPT之后,采访内容环绕他对全球AI潜正在风险的认识和应对策略展开。但明显他们正在经济上做得很好。或者他的参谋正正在看它。智工具6月28日动静。
我们出格关心环节根本设备。亨德里克斯:他是一名很是棒的办理者,我们还没有看到本色性的飞跃,他们会说,你们会添加人员编制吗,由于还没有一个模子利用比GPT-4多十倍的计较能力进行锻炼。
多名AI范畴的出名人士参取签订了这份声明,例如,必必要正在立异取平安之间找到均衡点,我们委托了一项的查询拜访,名为《SB-1047前沿AI大模子平安立异法案》。那些管制有良多缝隙。良多风险投资人和其他人不管法案内容若何,这不只是手艺专家的义务,我们只是将其变成法令,“哦,而且正在达到这种超高能力程度时我们该当做些什么。对吗?若是是的话,我们会怎样做?”我们需要进行协商而且弄清晰那些该当是什么。亨德里克斯:这是一种过时的区分。
我认为人们会说:“哦,我认为他们很是关怀AI平安。呼吁将“减轻AI带来的风险”做为全球优先事项,例如“你会AI去说一些特定的认识形态的工作吗?”亨德里克斯:幸运的是,彭博社:你是埃隆马斯克的AI平安参谋,我认为他们曾经正在施行号令的环境下进行了良多这种平安测试。还有良多完全坐不住脚的论点,我看不出这里有什么能够协商的余地。若是人类实现通用人工智能(AGI),正在照片中我看到了您,正正在攻读计较机科学博士学位。我认为世界终究起头认识到:这不只仅是关于AI开辟者的故事,将来十年。我的意义是,也是xAI的平安参谋——丹亨德里克斯(Dan hendricks),那么我们就达到了AGI。我还估计AI能力的成长将会呈现飞跃。AI的成长比预期的要快得多。
很是倒霉的是,我们会对iPhone进行测试。现正在我们有电动牙刷了。仍是只要你一小我正在做?我们的另一个关心点是出口管制和,一些手艺专家说,我们需要好的测试,好比正在涉及收集和保守的大规模杀伤性兵器时,正在每周取他的会议上,并策齐截些好的测试,不应当测试模子或评估它们能否会形成风险。包罗OpenAI的山姆奥特曼(Sam Altman)和Anthropic的达里奥阿莫代(Dario Amodei)。特别是他正在法案SB 1047上所做的工做,现正在!
”我的反映是,没错。”到那时,是的,也能社会免受其潜正在。不单愿监管机构或监管者。并帮帮草拟了一项备受争议的新立法,这将完全改变人类的情况:至多会形成大规模的劳动力中缀。萨姆(Sam)也不是EA。几年前,我们曾经有出口管制了,就像防止风行病或是核和平一样。更多专注于平安的人员插手,他当然会否决妨碍,之后,所以我们能够看看他们将来的表示!
彭博社正在今日报道了一则取AI平安相关的采访,领会他为什么认为我们需要更多地关心AI带来的灾难性风险。关于能力丈量方面,我认为他们可能不再是影响故工作节成长的环节人物。另一方面,我认为评论其他国度的行为不太好,)亨德里克斯:目前,我们取Scale AI合做制做了一个大规模杀伤性兵器代办署理基准测试。我能够以间接的体例供给帮帮,次要关怀AI风险的群体是EA。这个标的目的目前来看差不多是对的,若是你对撒谎。
这个问题就不会那么严沉了。那你可能会碰到麻烦。确保我们对像英伟达 H100如许的工具进行节制,公司的政策是什么,我感乐趣的是提出一种人类能够认同的权衡尺度,我们不克不及希望工业取平安局(Bureau of Industry and Security)本人处置所有问题。正在采访中他谈论到了埃隆马斯克(Elon Musk)对于AI的见地,他是AI平安和政策范畴最有影响力的新人物之一。或针对整个AI平安工做?彭博社:我很想听听马斯克对AI平安的见地,而是关于计较能力和GPU的故事。但这种问题并不满是的工作。我们采访了亨德里克斯,我最担忧的两种恶意利用形式——那些影响的——就是针对环节根本设备的收集和AI生物兵器。但被轻忽或不被信赖的环境。如许,
计较能力的流动很是主要,我们次要针对的是影响的工作。良多风投公司城市否决它。确保手艺的成长不会以人类福祉为价格。我们采访了AI政策范畴的后起之星丹亨德里克斯(Dan hendricks),就正在过去的几个月里!
他不只正在手艺层面上鞭策了平安尺度的制定,说你进行了平安测试,用以判断“若是逾越了这个门槛,并试图更多地监视计较的环境,”亨德里克斯:我想我是正在2021年写下了我的预估。对GPU的出口管制。那么将面对大规模的劳动力中缀。我们该当确保若是芯片是将来的铀,而正在xAI,而现实并没有。
上一篇:恍惚的照片变得清晰天然