>ZenMLは、すべてのオープンソースのAIツールを結びつける「接着剤」になりたいと思っています。このオープンソースのフレームワークは、データサイエンティスト、機械学習エンジニア、プラットフォームエンジニアが協力し、新しいAIモデルを構築するために使用するパイプラインを構築することができます。
ZenMLが興味深い理由は、企業が独自のプライベートモデルを構築できるようにすることです。もちろん、企業はGPT 4の競合他社を構築することはないでしょう。しかし、彼らは自分たちのニーズに特に適した小さいモデルを構築することができます。そして、それによってOpenAIやAnthropicなどのAPIプロバイダへの依存度を減らすことができます。
「初めのハイプの波がOpenAIやクローズドソースのAPIを使っている人々と共に去った時、[ZenML]は人々が独自のスタックを構築できるようにするでしょう」と、VCファームポイントナインのパートナールイス・コペー氏が教えてくれました。
今年の初め、ZenMLは既存の投資家であるCraneと拡張系のシードラウンドをPoint Nineから調達しました。ドイツ・ミュンヘンに拠点を置くこのスタートアップは、創業以来640万ドルを確保しています。
ZenMLの創設者であるAdam ProbstとHamza Tahirは、以前に特定の業界向けのMLパイプラインを構築する企業で共同して働いていました。「日々の業務の中で、私たちは機械学習モデルを構築し、機械学習を本番環境に導入する必要がありました」とZenMLのCEOであるAdam Probstは語りました。
この仕事から、2人は状況、環境、および顧客に適応するモジュラーシステムを設計し始め、同じ作業を何度も繰り返す必要がないようにしました。それがZenMLにつながりました。
同時に、機械学習を始めるエンジニアは、このモジュラーシステムを使用することで早速進めることができます。ZenMLチームはこれをMLOpsと呼んでいます-これはDevOpsと少し似ていますが、特に機械学習に適用されています。
「私たちは、個々の価値チェーンの特定のステップに焦点を当てたオープンソースツールをつなげることで、機械学習パイプラインを構築しています- AWSやGoogleなどのハイパースケーラーの裏側、およびオンプレミスのソリューションなど、すべてに対応しています」とProbstは述べました。
ZenMLの主要なコンセプトはパイプラインです。パイプラインを作成した後、AirflowやKubeflowなどのオープンソースツールを使用してローカルで実行したり、展開したりすることができます。また、EC2やVertex Pipelines、Sagemakerなどのマネージドクラウドサービスも利用することができます。ZenMLはまた、Hugging Face、MLflow、TensorFlow、PyTorchなどのオープンソースのMLツールとも統合されています。
「ZenMLは、すべてを1つの統一されたエクスペリエンスにまとめるものです-マルチベンダー、マルチクラウドです」とZenMLのCTOであるHamza Tahirは語りました。それはMLのワークフローにコネクタ、可観測性、監査性をもたらします。
会社は最初にGitHub上でフレームワークをオープンソースツールとしてリリースしました。チームはコーディングプラットフォームで3000以上のスターを集めました。ZenMLは最近、管理されたサーバとともにクラウドバージョンも提供し始めました- CI/CDトリガーも近日中に提供されます。
いくつかの企業は、産業用途、eコマースの推薦システム、医療環境での画像認識などにZenMLを使用しています。クライアントにはRivian、Playtika、Leroy Merlinなどが含まれます。
プライベート、特定業界向けモデル
ZenMLの成功は、AIエコシステムの進化によって左右されるでしょう。現在、多くの企業はOpenAIのAPIをクエリしてAIの機能を追加しています。この製品では、大量のテキストを要約するマジックボタンがあります。その製品では、顧客サポートの相互作用に対する事前に書かれた回答があります。
しかし、これらのAPIにはいくつかの問題があります-それらはあまりにも洗練されすぎており、あまりにも高価です。「OpenAIまたはこれらの非公開の裏で構築された大規模な言語モデルは一般的なユースケースに対応するために構築されているため、特定のユースケースには現在のところ訓練が進んでおり、非常に高価です」とProbst氏は述べました。
「OpenAIは将来を持つでしょうが、私たちは市場の大部分が独自の解決策を持たなければならないと考えています。そして、これがオープンソースが彼らに非常に魅力的な理由です」と彼は付け加えました。
OpenAIのCEOであるSam Altmanも、AIモデルがすべてのケースに適用できるワンサイズフィットオールの状況ではないと考えています。「両方が重要だと思います。私たちは両方に興味を持っており、将来は両方のハイブリッドになるでしょう」とAltman氏は、今年のStation FでのQ&Aセッションで小規模で特化したモデルと広範なモデルについて質問に答える際に述べました。
AIの使用には倫理的および法的な問題もあります。規制はまだ非常に進化途上ですが、特にヨーロッパの法律では、非常に特定のデータセットと非常に特定の方法でトレーニングされたAIモデルの使用を促すことができます。
「ガートナーによると、75%の企業が2024年に[コンセプトの証明]から本番環境に移行しています。そのため、次の1年または2年は、おそらくオープンソースの基礎モデルをプロプライエタリデータに微調整して使用することで、AIの歴史で最も重要な瞬間のいくつかになるでしょう」とTahir氏は私に語りました。
「MLOpsの価値は、99%のAIユースケースがより専門化された、より安価な、より小さなモデルによって推進されると我々は考えています」と彼は会話の中で後に付け加えました。
元記事はこちら