互联网性能和安全公司Cloudflare于周三推出了Cloudflare AI,以及一套生成式人工智能工具,供开发人员在其庞大的服务器阵列上构建应用。
Cloudflare的新AI平台——在公司成立13周年之际发布——旨在让开发人员能够在Cloudflare的网络上构建“全栈”和“生产就绪”的人工智能应用,而不是使用他们自己的服务器,为部署AI模型提供了快速且经济实惠的方式,避免了直接基础设施管理的麻烦。
新平台还为Cloudflare的AI工具箱带来了几项新的功能。
Cloudflare首席执行官Matthew Prince在接受Decrypt采访时表示:“在我们的周年纪念日,也就是我们的生日,我们通常会宣布新产品。我们将通过我们在这个领域所做的一切来推动人工智能世界的发展。”
总部位于旧金山的Cloudflare成立于2009年的今天,作为网站和用户之间的保护和增强接口。它利用域名系统(DNS)增强和保护网站,确保快速内容交付,防御恶意攻击,并通过其全球服务器网络优化网站性能。
去年,Cloudflare进入了Web3,表示该互联网安全公司计划在区块链从工作量证明算法转变为权益证明算法(俗称“合并”)后运行和抵押Ethereum验证节点。
上周,去中心化加密货币交易所Balancer成为DNS攻击的目标后,该交易所的开发人员设置了Cloudflare警报,以警告用户不要与交易所的前端和钱包进行交互。
提供云AI部署服务的其他公司包括亚马逊网络服务(AWS)、微软的Azure、IBM Cloud和谷歌云。
Prince强调了与Cloudflare AI一起宣布的其他功能,包括Worker AI,旨在在Cloudflare庞大的网络上提供无缝且经济高效的GPU访问,专为快速AI任务进行了优化。开发人员可以通过Vectorize在Worker AI中高效执行嵌入。最后,新推出的AI Gateway帮助用户监控AI利用率,使他们能够理解和管理相关成本。
公司与Cloudflare合作开发其AI平台的包括微软、NVIDIA、Hugging Face、Databricks和Facebook母公司Meta。
“我们的主要目标是简化Hugging Face模型从他们的库部署到Cloudflare基础设施,确保它在很短的时间内投入运行,” Prince详细说明道。“此外,Hugging Face正在检查他们的模型目录,并优化模型,以确保它们在我们整个基础设施上尽可能顺利地运行。”
除了创建和运行新模型外,Cloudflare表示开发人员可以使用Cloudflare AI平台为OpenAI的ChatGPT开发插件。除了训练可定制的AI模型和开发插件外,Prince表示Cloudflare AI还解决了部署AI工作负载的财务挑战,同时确保客户数据隐私和合规性。
在AI聊天机器人上维护和运行查询的成本可能会迅速累积。根据2023年2月的一份报告,数据分析公司SemiAnalysis估计运行ChatGPT的成本为每天644,444美元的硬件成本和每次查询0.36美元。Prince指出,高成本要求从一开始就建立健壮的系统。
“当GPU资源稀缺时也是如此,”他说。“Cloudflare使数据能够轻松地转移到任何可用资源的地方,而不仅仅是假设你会在任何平台上都有资源。”
然而,财务成本和基础设施挑战并不是AI开发人员唯一面临的问题。网络犯罪分子滥用先进的AI技术,特别是用于制造欺诈和非法深度伪造,构成了一个巨大的风险,企业、要人和政策制定者继续努力应对。Prince强调了行业持续警惕和评估的必要性。
“我相当乐观地认为好人比坏人多,而且好人往往比坏人拥有更多资源,这是许多问题的解决方案,”Prince总结道。
免责声明:本文章仅代表作者个人观点,不代表本平台的立场和观点。本文章仅供信息分享,不构成对任何人的任何投资建议。用户与作者之间的任何争议,与本平台无关。如网页中刊载的文章或图片涉及侵权,请提供相关的权利证明和身份证明发送邮件到support@aicoin.com,本平台相关工作人员将会进行核查。