奥运竞赛选拔最聪明的AI:Claude和GPT-4谁占上风?

原文标题:奥林匹克竞赛里选最聪明的AI:Claude-3.5-Sonnet vs. GPT-4o?

原文作者:机器之心

冷月清谈:

上海交通大学推出了奥林匹克竞技场(OlympicArena),将AI比作参加奥林匹克竞赛的运动员,评估其在各科目的智力和推理能力。

研究人员将最近发布的Claude-3.5-Sonnet和GPT-4o与OpenAI的GPT-4系列(GPT4o和GPT-4V)模型进行了比较。

在总体性能上,Claude-3.5-Sonnet的表現与GPT-4o相當,甚至在物理、化学和生物学上超越了GPT-4o。Gemini-1.5-Pro緊隨其後,但與前兩者存在明顯差距。

進一步的分析顯示,GPT-4o在傳統的演繹和歸納推理方面優於Claude-3.5-Sonnet,而在物理、化學和生物學等知識密集型學科方面,Claude-3.5-Sonnet則表現得更好。

在推理能力上,GPT-4o在演繹、歸納、溯因等推理類型上表現突出,而Claude-3.5-Sonnet在因果、分解、定量推理方面更勝一籌。

在語言能力上,模型在英語方面的準確率普遍高於中文,而一些中國開發的模型在中文場景下表現優於英文場景。

在模態能力上,模型在純文本任務上的準確率高於多模態任務,表明模型在利用多模態信息解決複雜推理問題方面仍有改進空間。

此研究有助於開發更專業的多功能模型,以應對不同學科領域的多樣化需求。




怜星夜思:


1、Claude-3.5-Sonnet和GPT-4o在奥林匹克竞技场上的表现差异是否能反映出它们在现实世界中的应用?
2、你觉得在奥林匹克竞技场之外,还有哪些指标可以用来评估AI的智力和推理能力?
3、除了奥林匹克竞技场外,还有哪些方法可以促进AI智力和推理能力的发展?




原文内容



AIxiv专栏是机器之心发布学术、技术内容的栏目。过去数年,机器之心AIxiv专栏接收报道了2000多篇内容,覆盖全球各大高校与企业的顶级实验室,有效促进了学术交流与传播。如果您有优秀的工作想要分享,欢迎投稿或者联系报道。投稿邮箱:liyazhou@jiqizhixin.com;zhaoyunfeng@jiqizhixin.com

上海交通大学生成式人工智能实验室 (GAIR Lab) 的研究团队,主要研究方向是:大模型训练、对齐与评估。
团队主页:https://plms.ai/


AI技术日新月异,近来Anthropic公司最新发布的Claude-3.5-Sonnet因在知识型推理、数学推理、编程任务及视觉推理等任务上设立新行业基准而引发广泛讨论:Claude-3.5-Sonnet 已经取代OpenAI的GPT4o成为世界上”最聪明的AI“(Most Intelligent AI)了吗?回答这个问题的挑战在于我们首先需要一个足够挑战的智力测试基准,使得我们可以区分目前最高水平的AI

上海交通大学生成式人工智能实验室(GAIR Lab)推出的OlympicArena[1] (奥林匹克竞技场)满足了这个需求。

奥林匹克学科竞赛不仅是对人类(碳基智能)思维敏捷性、知识掌握和逻辑推理的极限挑战,更是AI(“硅基智能”)锻炼的绝佳练兵场,是衡量AI与“超级智能”距离的重要标尺。OlympicArena——一个真正意义上的AI奥运竞技场。在这里,AI不仅要展示其在传统学科知识上的深度(数学、物理、生物、化学、地理等顶级竞赛),还要在模型间的认知推理能力上展开较量。


近日,同样是研究团队,首次提出使用"奥林匹克竞赛奖牌榜"的方法,根据各AI模型在奥林匹克竞技场(各学科)的综合表现进行排名,选出迄今为止智力最高的AI。在此次竞技场中,研究团队重点分析并比较了最近发布的两个先进模型——Claude-3.5-SonnetGemini-1.5-Pro,以及OpenAI的GPT-4系列(e.g., GPT4o)。通过这种方式,研究团队希望能够更有效地评估和推动AI技术的发展。

图: 奥林匹克学科竞赛奖牌榜
注:研究团队首先依据金牌数量对模型进行排序,如果金牌数量相同,则按照整体性能分数来排序。

实验结果表明:

  • Claude-3.5-Sonnet在整体表现上与GPT-4o相比极具竞争力,甚至在一些科目上超过了GPT-4o(比如在物理、化学和生物学上)。
  • Gemini-1.5-Pro和GPT-4V排名紧随GPT-4o和Claude-3.5-Sonnet之后,但它们之间存在明显的表现差距。
  • 来自开源社区的AI模型性能明显落后于这些专有模型。
  • 这些模型在此基准测试上的表现不尽人意,表明我们在实现超级智能之路上还有很长的路要走。
  • 项目主页:https://gair-nlp.github.io/OlympicArena/

实验设置

研究团队采取OlympicArena的测试集进行评估。该测试集的答案并未公开,有助于防止数据泄露,从而反映模型的真实性能。研究团队测试了多模态大模型(LMMs)和纯文本大模型(LLMs)。对于LLMs的测试,输入时不提供任何与图像相关的信息给模型,仅提供文本。所有评估均采用零样本(zero-shot)思维链(Chain of Thought)提示词。

评估对象

研究团队评估了一系列开源和闭源的多模态大模型(LMMs)和纯文本大模型(LLMs)。对于LMMs,选择了GPT-4o、GPT-4V、Claude-3-Sonnet、Gemini Pro Vision、Qwen-VL-Max等闭源模型,此外还评估了LLaVA-NeXT-34B、InternVL-Chat-V1.5、Yi-VL-34B和Qwen-VL-Chat等开源模型。对于LLMs,主要评估了Qwen-7B-Chat、Qwen1.5-32B-Chat、Yi-34B-Chat和InternLM2-Chat-20B等开源模型。

此外,研究团队特别包括了新发布的Claude-3.5-Sonnet以及Gemini-1.5-Pro,并将它们与强大的GPT-4o和GPT-4V进行比较。以反映最新的模型性能表现。

评估方法

衡量标准 鉴于所有问题都可以通过基于规则的匹配进行评估,研究团队对非编程任务使用准确率,并对编程任务使用公正的pass@k指标,定义如下:

图片


本次评估中设定k = 1且n = 5,c表示通过所有测试用例的正确样本数量。

奥林匹克竞技场奖牌榜:

与奥运会使用的奖牌系统类似,是一个专门设计用来评估AI模型在各个学术领域性能的先驱性排名机制。该表为在任一给定学科中取得前三名成绩的模型颁发奖牌,从而为比较不同模型提供了一个明确且具有竞争性的框架。研究团队首先依据金牌数量对模型进行排序,如果金牌数量相同,则按照整体性能分数来排序。它提供了一种直观简洁的方式来识别不同学术领域中的领先模型,使研究人员和开发者更容易理解不同模型的优势和劣势。

细粒度评估:
研究团队还基于不同学科、不同模态、不同语言以及不同类型的逻辑和视觉推理能力进行基于准确性的细粒度评估。

结果与分析

分析内容主要关注Claude-3.5-Sonnet和GPT-4o,同时也对Gemini-1.5-Pro的性能表现进行了部分讨论。

总体情况

表:模型在不同学科上的表现

根据表格的总体结果,可以观察到:

  • 新发布的Claude-3.5-Sonnet性能强大,达到了几乎与GPT-4o相当的水平。两者的整体准确率差异仅约1%。
  • 新发布的Gemini-1.5-Pro也展现出了相当的实力,在大多数学科中的表现超过了GPT-4V(OpenAI当前第二强大的模型)。
  • 值得注意的是,在撰写本报告时,这三个模型中最早的发布时间仅为一个月前,反映了这一领域的快速发展。

针对学科的细粒度分析

GPT-4o vs. Claude-3.5-Sonnet:

尽管GPT-4o和Claude-3.5-Sonnet在整体上表现相似,但两个模型都展现了不同的学科优势。GPT-4o在传统的演绎和归纳推理任务上展现出更优秀的能力,特别是在数学和计算机科学方面。Claude-3.5-Sonnet在物理、化学和生物等学科表现出色,特别是在生物学上,它超过GPT-4o 3%。

GPT-4V vs. Gemini-1.5-Pro:

在Gemini-1.5-Pro与GPT-4V的比较中,可以观察到类似的现象。Gemini-1.5-Pro在物理、化学和生物学方面的表现显著优于GPT-4V。然而,在数学和计算机科学方面,Gemini-1.5-Pro优势不明显甚至不如GPT-4V。

从这两组比较中,可以看出:

  • OpenAI的GPT系列在传统的数学推理和编程能力上表现突出。这表明GPT系列模型已经经过了严格训练以处理需要大量演绎推理和算法思维的任务。
  • 相反,当涉及到需要将知识与推理结合的学科,如物理、化学和生物学时,其他模型如Claude-3.5-Sonnet和Gemini-1.5-Pro展现出了具有竞争性的表现。这体现了不同模型的专业领域以及潜在的训练重点,表明在推理密集型任务以及知识整合型任务可能存在的权衡。

针对推理类型的细粒度分析

Caption: 各模型在逻辑推理能力上的表现。逻辑推理能力包括:演绎推理(DED)、归纳推理(IND)、溯因推理(ABD)、类比推理(ANA)、因果推理(CAE)、批判性思维(CT)、分解推理(DEC)和定量推理(QUA)。

GPT-4o 与 Claude-3.5-Sonnet 在逻辑推理能力上的比较:

从表格的实验结果可以看出,GPT-4o在大多数的逻辑推理能力上优于Claude-3.5-Sonnet,例如演绎推理、归纳推理、溯因推理、类比推理和批判性思维方面。然而,Claude-3.5-Sonnet在因果推理、分解推理和定量推理上的表现超过了GPT-4o。整体而言,两个模型的表现相当,虽然GPT-4o在大多数类别上略有优势。

表: 各模型在视觉推理能力上的表现。视觉推理能力包括:模式识别(PR)、空间推理(SPA)、图表推理(DIA)、符号解释(SYB)和视觉比较(COM)。

GPT-4o vs. Claude-3.5-Sonnet 在视觉推理能力上的表现:

从表格的实验结果可以看出,Claude-3.5-Sonnet在模式识别和图表推理方面能力领先,展现了其在模式识别和解读图表方面的竞争力。两个模型在符号解释方面表现相当,表明它们在理解和处理符号信息方面具有相当的能力。然而,GPT-4o在空间推理和视觉比较方面优于Claude-3.5-Sonnet,展示了其在需要理解空间关系和比较视觉数据的任务上的优越性。

综合学科与推理类型的分析,研究团队发现:

  • 数学和计算机编程强调复杂演绎推理技巧和基于规则导出普适性结论,倾向于较少依赖预先存在的知识。相比之下,像化学和生物学这样的学科往往需要大量的知识库来基于已知的因果关系和现象信息进行推理。这表明,尽管数学和编程能力仍然是衡量模型推理能力的有效指标,其他学科更好地测试了模型在基于其内部知识进行推理和问题分析方面的能力。
  • 不同学科的特点表明了定制化训练数据集的重要性。例如,要提高模型在知识密集型学科(如化学和生物学)中的表现,训练期间模型需要广泛接触特定领域的数据。相反,对于需要强大逻辑和演绎推理的学科,如数学和计算机科学,模型则能从专注于纯逻辑推理的训练中受益。
  • 此外,推理能力和知识应用之间的区别表明了模型跨学科应用的潜力。例如,具有强大演绎推理能力的模型可以协助需要系统化思维解决问题的领域,如科学研究。而拥有丰富知识的模型在重度依赖现有信息的学科中非常宝贵,如医学和环境科学。理解这些细微差别有助于开发更专业和多功能的模型。

针对语言类型的细粒度分析

Caption: 各模型在不同语言问题的能力表现。


以上表格展示了模型在不同语言上的性能表现。研究团队发现大多数模型在英语上的准确度比中文要高,这种差距在排名靠前的模型中尤为显著。推测可能有以下几个原因:

  • 尽管这些模型包含了大量中文训练数据并且具有跨语言泛化能力,但它们的训练数据主要以英语为主。
  • 中文问题的难度比英文问题更具挑战性,尤其是在物理和化学等科目中,中国奥林匹克竞赛的问题更难。
  • 这些模型在识别多模态图像中的字符方面能力不足,中文环境下这一问题更为严重。

然而,研究团队也发现一些中国厂商开发或基于支持中文的基模型进行微调的模型,在中文场景下的表现优于英文场景,例如Qwen1.5-32B-Chat、Qwen-VL-Max、Yi-34B-Chat和Qwen-7B-Chat等。其他模型如InternLM2-Chat-20B和Yi-VL-34B,虽然仍然在英语上表现更好,但与排名靠前的闭源模型相比,它们在英语和中文场景间的准确度差异要小得多。这表明,为中文数据乃至全球更多语言优化模型,仍然需要显著的关注。

针对模态的细粒度分析

Caption: 各模型在不同模态问题的能力表现。

以上表格展示了模型在不同模态上的性能表现。GPT-4o在纯文本和多模态任务中均优于Claude-3.5-Sonnet,并在纯文本上表现更突出。另一方面,Gemini-1.5-Pro在纯文本和多模态任务上表现均优于GPT-4V。这些观察表明,即使是目前可用的最强模型,在纯文本任务上也比多模态任务有更高的准确率。这说明模型在利用多模态信息解决复杂推理问题方面仍有相当大的改进空间。

结语

研究团队在本次评测中主要关注最新的模型:Claude-3.5-Sonnet 和 Gemini-1.5-Pro,并将它们与 OpenAI 的 GPT-4o 和 GPT-4V 进行比较。此外,研究团队还设计了一种用于大模型的新颖排名系统——OlympicArena Medal Table,用来清晰的比较不同的模型的能力。研究团队发现,GPT-4o 在数学和计算机科学等科目上表现突出,具有较强的复杂演绎推理能力和基于规则得出普遍结论的能力。另一方面,Claude-3.5-Sonnet 更擅长根据已有的因果关系和现象进行推理。另外,研究团队还观察到这些模型在英语语言问题上表现更好,并且在多模态能力方面有显著的改进空间。理解模型这些细微差别有助于开发更专业化的模型,以更好地满足不同学术和专业领域的多样化需求。

随着四年一度的奥运盛事日益临近,我们不禁想象,如果人工智能也能参与其中,那将是一场怎样的智慧与技术的巅峰对决?不再仅仅是肢体的较量,AI的加入无疑将开启对智力极限的新探索, 也期待更多AI选手加入这场智力的奥运会。

参考链接:
[1] Huang et al., OlympicArena: Benchmarking Multi-discipline Cognitive Reasoning for Superintelligent AI https://arxiv.org/abs/2406.12753v1


© THE END 

转载请联系本公众号获得授权

投稿或寻求报道:content@jiqizhixin.com

**跨學科合作:**將來自計算機科學、心理學、神經科學等領域的知識和見解相結合,可以提供新的視角和方法來促進AI的智力和推理能力的發展。

**公開基准和競賽:**設計和託管公開基准和競賽,可以比較和激勵研究人員和開發人員提高AI的智力和推理能力。

部分正確。奧林匹克競技場的表現可以提供一種相對客觀的方式來比較模型的能力,但它並不總是能準確地預測它們在現實世界中的表現。需要注意的是,競技場中的任務是專門設計的,可能無法完全捕捉到現實世界應用中遇到的全部複雜性和挑戰。因此,在將競技場結果推廣到實際應用之前,需要進行額外的考慮和評估。然而,對於研究人員和開發人員來說,競技場仍然是一個有用的工具,可以深入了解模型的優勢和不足。通過結合競技場結果和現實世界的測試,可以更全面地了解模型的潛在能力和局限性。

**自然語言理解和生成:**評估模型理解和生成人類語言的能力,這在人機交互和信息提取等任務中至關重要。

是的,奧林匹克競技場中的表現可以一定程度地反映模型在現實世界中的应用。這些任務涵蓋了廣泛的學科領域和推理類型,涉及到對複雜問題的解決能力。因此,在競技場中表現出色的模型很可能在現實世界中表現良好,特別是在需要類似的推理技能和知識的任務中。

**適應學習能力:**評估模型從新任務和環境中快速學習的能力,這對於現實世界的應用至關重要,因為它們通常是動態和不斷變化的。

**持續訓練和微調:**通過使用新的和多樣化的數據集持續訓練模型,並根據特定任務或領域進行微調,可以提高其智力和推理能力。

不一定,奧林匹克競技場的任務雖然具有挑戰性,但它們仍然是受控的學術環境。在現實世界中,模型需要面對更多的混亂和不確定性,例如不完整的數據、有噪聲的輸入和意外情況。在這些情況下,模型的表現可能會比在競技場中表現得更差。

**理論基礎研究:**進行理論研究以深入了解智力和推理的本質,可以為AI算法和架構的設計提供信息和靈感。

**人類反饋和協作:**將人類的反饋和專業知識融入AI的開發和評估過程中,可以幫助模型學習和適應現實世界的需求。

**算法創新:**開發新的機器學習算法和架構,專門針對提高推理能力進行優化,可以推動該領域的進展。

**多模態協調能力:**評估模型聯合使用來自不同模態(例如文本、圖像、音頻)的信息進行推理的能力,這對於處理現實世界中的複雜任務至關重要。

**推理鏈評估:**根據模型產生的推理過程的完整性和有效性來評估其推理能力,這對於確保推理結果的可解釋性和可信度至關重要。

**視覺推理能力:**評估模型從視覺數據中提取信息和得出推論的能力,這對於自駕車、圖像處理和醫療診斷等應用非常重要。

**問題解決能力:**評估模型解決開放式問題的能力,這些問題通常需要創造性思維、批判性思維和對廣泛知識的利用。