生成 AI エンタープライズ ツールを顧客に信頼できると示す 4 つの方法

ブログ

ホームページホームページ / ブログ / 生成 AI エンタープライズ ツールを顧客に信頼できると示す 4 つの方法

Jul 27, 2023

生成 AI エンタープライズ ツールを顧客に信頼できると示す 4 つの方法

企業がオンプレミスからクラウドにデータを移動するクラウド革命の黎明期に、Amazon、Google、Microsoft はセキュリティへの配慮のおかげで少なくとも部分的には成功しました。

企業がオンプレミスからクラウドにデータを移動するクラウド革命の黎明期に、Amazon、Google、Microsoft は、根本的な懸念事項としてセキュリティに注意を払っていたために、少なくとも部分的には成功しました。 大規模な顧客は、SOC2 認定を受けていないクラウド会社との提携を検討することさえありません。

現在、新たな世代交代が起きており、労働者の 65% がすでに AI を日常的に使用していると回答しています。 ChatGPT などの大規模言語モデル (LLM) は、クラウド コンピューティングや SaaS サブスクリプション モデルがかつてそうであったのと同じように、ビジネスを一変させる可能性があります。

この初期のテクノロジーにも、当然の懐疑論が生じます。 LLM は、捏造された情報を「幻覚」させたり、実際の情報を誤って共有したり、知識のない従業員によって提供された企業の機密情報を保持したりするリスクがあります。

LLM が関わるどの業界でも、最終的にパフォーマンス低下のリスクを負うのは、意欲的なサービスプロバイダーとその B2B クライアントとの間に非常に高いレベルの信頼が必要です。 彼らはあなたの評判、データの整合性、セキュリティ、認定を調べようとするでしょう。 LLM の「ランダム性」の可能性を減らし、最大限の信頼を構築するために積極的な措置を講じたプロバイダーは、大きな勝者となるでしょう。

現時点では、潜在的な顧客に誇示するための「信頼できる」お墨付きを与えることができる規制機関はありません。 ただし、生成 AI 組織をオープンブックとして構築し、潜在的な顧客との信頼を築く方法を以下に示します。

現在、生成 AI のデータ セキュリティに関する特定の認証はありませんが、SOC2 準拠、ISO/IEC 27001 標準、GDPR (一般データ保護規則) 認証など、隣接する認証をできるだけ多く取得することのみが信頼性を高めるのに役立ちます。

また、地域によって異なるデータ プライバシー規制についても最新の情報を入手する必要があります。 たとえば、Meta が最近 Twitter の競合企業 Threads をリリースしたとき、データ追跡とプロファイリングの実践の合法性に対する懸念により、EU でのリリースが禁止されました。

新たなニッチ市場でまったく新しい道を切り開いているとき、規制の策定を支援する立場に立つこともあるかもしれません。 過去のビッグテックの進歩とは異なり、FTC のような組織は、生成 AI プラットフォームの安全性の調査にはるかに迅速に取り組んでいます。

サム・アルトマンのような世界の国家元首と握手をすることはないかもしれませんが、地元の政治家や委員会のメンバーに連絡を取り、専門知識と協力を提供することを検討してください。 ガードレールを作成する意欲を示すことで、サービスを提供する予定の人々にのみ最善を尽くしていることを示しています。

公式の規制がない場合は、安全性について独自の基準を設定する必要があります。 信頼性の証拠となるマイルストーンを含むロードマップを作成します。 これには、品質保証フレームワークのセットアップ、特定レベルの暗号化の達成、または多数のテストの実行などが含まれる場合があります。