为欧洲语言开发可靠和可持续的语言模型

信任和可信度的挑战

在ChatGPT能够对社会产生益处之前,需要克服重大挑战。尽管该模型能够生成语法正确且令人信服的文本,但它缺乏生成事实准确信息的能力。确保正确性和可信度是TrustLLM项目参与研究人员的首要任务。与搜索引擎相比,语言模型的局限性在于用户只能获得一个回应,限制了用户做出明智决策的能力。

所有权和效率的关切

像ChatGPT这样的语言模型存在一个重大问题,即它们通常由大型美国公司拥有,这引发了社会和科学问题。这些模型在训练过程中缺乏透明度,而欧洲公司在这一领域的资源也面临重大挑战。TrustLLM项目旨在通过开发高效和可持续的模型来解决这些问题,以最小化能源消耗。研究人员还强调了将他们的方法发表供科学界进行批判性审查的重要性。

欧洲合作与开放性

TrustLLM项目是一个合作努力,涉及德国、冰岛、丹麦、挪威和荷兰的组织。该项目由欧盟的研究和创新资助计划Horizon Europe资助。研究人员旨在开发开放和可访问的语言模型,以造福多个国家和行业。通过专注于医学、媒体、车辆和移动性以及公共机构等实际应用领域,该项目旨在满足现实需求。最终目标是建立一个欧洲的大型语言模型和人工智能中心,以最大化科学、社会和财务影响。