Venture
企業をLLMの脆弱性から保護するLakera、2000万ドル調達
Lakeraは、悪意あるプロンプトやその他の脅威から生成AIアプリを保護する技術を構築しているスイスのスタートアップであり、欧州のベンチャーキャピタルファーム、AtomicoがリードするシリーズAラウンドで2000万ドルを調達しました。
生成AIは、ChatGPTなどの人気アプリによって推進されるAI運動の代表格として浮上しています。ただし、企業の環境では、セキュリティやデータプライバシーに関する問題が主な懸念材料となっています。
背景として、大規模言語モデル(LLMs)は生成AIのエンジンであり、機械が人間と同様にテキストを理解し生成することを可能にします。しかし、ポエムを書くか契約書の要約をしてほしい場合でも、そのアプリケーションには出力をガイドするための指示が必要です。ただし、これらの「プロンプト」は、トリックするように構築され、機密データを漏洩させたり、訓練に使用された機密情報を明かしたり、プライベートシステムへの不許可アクセスを提供するようにアプリケーションをだます可能性があります。このような「プロンプト注入」は、実際に問題となっており、具体的にはLakeraが取り組んでいる課題です。
プロンプトへの対応
2021年にチューリッヒで設立され、Lakeraは2021年10月に1,000万ドルの資金調達で正式にローンチし、データ漏洩やプロンプト注入などのLLMセキュリティ弱点から組織を保護するという明確な約束をしました。同社は、OpenAIのGPT-X、GoogleのBard、MetaのLLaMA、Antrop
icのClaudeを含む、どのLLMとも連携します。
Lakeraは、「低レイテンシAIアプリケーションファイアウォール」として位置付けられ、生成AIアプリケーションのトラフィックの安全性を確保します。
ゲームはより洗練され(したため「ハッキング」がより難しくなります)。ただし、これらのインタラクションにより、Lakeraは「プロンプト注入タクソノミー」を構築し、このような攻撃をカテゴリーに分けています。
Lakeraによると、企業が自社アプリケーションをLakera Guard APIと統合することで、悪意のあるプロンプトに対する保護が向上します。ただし、同社は、有毒コンテンツに対してプロンプトやアプリケーション出力をスキャンする専門モデルも開発しており、憎悪表現、性的コンテンツ、暴力、卑語用の検出器も装備しています。
「これらの検出器は、公開されているアプリケーション、たとえばチャットボットに特に有用ですが、他の設定でも使用されています」とHaber氏は述べています。
さらに、これから2000万ドルの資金を手に入れたLakeraは、グローバル展開に本格的に取り組み、特に米国での存在を強化する準備を整えています。同社はすでに、北米におけるいくつかのかなり高名な顧客を獲得しており、米国のAIスタートアップであるRespellや、ジェネレーティブAIのライバルであるカナダのメガユニコーンCohereを含んでいます。
「大規模企業、SaaS企業、AIモデルプロバイダーは、すべて安全なAIアプリケーションを展開するために競争しています」とHaber氏は述べています。「金融サービス機関はセキュリティリスクとコンプライアンスリスクを理解しており、早期採用を実施していますが、興味は業界全体に広がっています。ほとんどの企業は、競争力を維持するためにGenAIを自社のコアビジネスプロセスに組み込む必要があると認識しています。」
主要な支援者であるAtomicoだけでなく、LakeraのシリーズAラウンドにはDropboxのVC部門、Citi Ventures、Redalpineが参加しました。