AIを使ったプロダクト開発または既存プロダクトにAIの導入に際して考えていること
1. はじめに
近年、人工知能(AI)技術の急速な発展により、多くの企業が AI を活用したプロダクト開発や既存プロダクトへの AI 導入を検討しています。今回、プロダクトマネジメントの観点からこの課題を考察し、AI を使ったプロダクト開発または既存プロダクトに AI を導入する際に考えていること、効果的な AI 導入のための戦略と注意点をまとめました。
2. プロダクトマネジメントの本質
2.1 プロダクトマネジメントの誤解
プロダクトマネジメント(PM)の仕事は、単なる調整業務に留まりません。調整業務とは、プロジェクトの進行管理やスケジュール調整、各部門間のコミュニケーションを円滑にすることを指します。これは確かに重要な役割ですが、PM の本質はビジネス要件や技術革新をユーザー体験に結びつけることにあります。見聞きする事例では、PM の役割がこれらの「調整」にとどまっていることがしばしば見受けられます。特に良くないなと思われる事例は上長の思いつきと言えるような意見を現場に伝達すると言った業務を中心に行っている事例です。しかし、本来の PM は、製品の成功に直結する戦略的な役割を果たすべきです。調整業務との混同を避け、ビジョンと戦略を持った PM 活動を推進することが重要です。
日本においてプロダクトマネジメント(PM)職種の普及は、近年急速に進んでいます。特に、テクノロジー業界やスタートアップ企業で PM の重要性が認識されるようになり、多くの企業が PM ポジションを設け始めました。この動きは、グローバル市場での競争力強化や製品開発の効率化を目的としています。日本における PM 職種においてはより「調整業務」にとどまっている事例が多い印象です。多くの企業では、PM がプロジェクトのスケジュール管理や部門間の調整に専念し、製品のビジョン策定や戦略的意思決定に関与する機会が限られています。この背景には、もともとあったプロジェクトマネージャー職種やディレクター職種の仕事内容のイメージから脱しきれていないのでないかと推測します。
2.2 真のプロダクトマネジメント
プロダクトマネジメントの核心は、ビジネス要件と技術革新をユーザー体験へ統合することです。ビジネス要件は、市場ニーズや収益目標など、企業が達成したい具体的な成果を指します。一方、技術革新は、新しいテクノロジーや方法論を用いて製品やサービスを向上させるプロセスです。これらを効果的に統合することで、ユーザーに価値ある体験を提供できます。関係各社の意見を聞いて調整することは大事ではありますが本質ではありません。
また、ビジョンとロードマップは、この統合を実現するための重要なツールです。ビジョンは、製品やサービスの将来像を描くものであり、チーム全体が同じ目標に向かって進むための指針となります。ロードマップは、ビジョンを実現するための具体的なステップやマイルストーンを示す計画です。これにより、プロジェクトの進捗を管理し、必要な調整を行うことができます。
その後、ユーザー体験を実際のプロダクトに落とし込むテクニックもプロダクトマネジメントの本質とも言える重要なスキルです。ユーザーインタビューなどの事前リサーチやプロトタイピングなどがこれに該当します。技術革新とユーザー体験の関係性もとても重要です。スティーブ・ジョブスは「ユーザー体験が先で、テクノロジーは後からついてくる」と述べました。この言葉は、ユーザーのニーズや体験を最優先に考えることが、成功するプロダクトを作る鍵であることを示しています。
https://www.youtube.com/watch?v=EU8ANASrDoQ
ジョブスの哲学はプロダクトマネジメントの本質非常に近いところにあると思います。ジョブスの哲学と調整型マネジメントスタイルを比較するとそのギャップはわかりやすいのではないでしょうか。
3. AI プロダクト開発の戦略
3.1 人間と AI のハイブリッドモデル
AI を導入する際、最初に人間と AI のハイブリッドモデルを採用することは非常に有効と考えます。多くの企業においてこの選択をまず最初に検討すべきと思います。ハイブリッドモデルでは、人間の判断力と AI の知識労働のスケーラビリティを組み合わせることで、双方の強みを活かすことができます。このアプローチは特に導入初期段階で有効であり、AI の精度や信頼性が完全に確立されていない段階でも、実務に適用可能です。
段階的な AI 統合の利点として、まずリスクの最小化が挙げられます。AI システムは学習データに基づいて動作しますが、初期段階ではデータのバイアスや不完全性が存在する可能性があります。AI が誤った情報を生成する「ハルシネーション」のリスクもあり、人間が AI の判断を監督し、必要に応じて修正を加えることで、誤った決定が重大な影響を与えることを防ぐことができます。
さらに、段階的な統合は、組織全体の AI に対する適応力を高める助けとなります。従業員は AI ツールの使用方法やその利点を理解し、徐々に新しい技術に慣れていくことができます。このプロセスにより、組織全体の AI リテラシーが向上し、将来的な完全統合への準備が整います。また、AI による作業のオフロードが可能となり、人間はより価値の高い創造的な業務に集中することができます。
最後に、段階的な統合は柔軟性を提供します。初期のフィードバックを基に AI モデルを改良し、実際の業務フローに適応させることができます。これにより、AI システムは現実のニーズに即した形で進化し、最終的には完全な自律型モデルへと移行することが可能になります。このように、段階的な AI 統合は、安全性と効果性を両立させる理想的なアプローチと言えます。
3.2 AI 単体モデルの可能性
ディープテック企業においては、例外的に AI 単体モデルは高度な技術革新を実現する強力なツールとして期待できると思います。例えば、医療診断では AI が自動的に画像診断を行い、異常を検出するシステムや、新素材の特性を予測する材料科学の AI モデルなどがその具体例です。しかし、これらの分野ですら AI 単体モデルを完全に依存することは、リスクが高いため避けるべきと思っています。
4. AI 導入における重要考慮事項
4.1 プラットフォーマーの動向
AI プロダクト開発において、主要な AI プラットフォームの動向を把握することは非常に重要です。主要な AI プラットフォームには、OpenAI、Anthropic、Google(Gemini)、Meta(LLaMA)が含まれます。これらのプラットフォームは、大規模言語モデル(LLM)や機械学習ツール、クラウドベースの AI サービスを提供し、企業が AI を活用するための強力な基盤を提供しています。
- OpenAI: GPT シリーズ(GPT-4o mini、GPT-4o など)などの強力な自然言語処理モデルを提供。対話型 AI やコンテンツ生成、プログラミング支援など、幅広い用途で利用されています。
- Anthropic (Claude): 安全で説明可能な AI を重視し、AI 倫理や安全性に関する先進的な研究を行っています。これにより、信頼性の高い AI システムの構築が可能です。
- Google(Gemini): Gemini プロジェクトを通じて、次世代の AI 技術を開発。検索、広告、画像認識など、多岐にわたる分野で AI を活用しています。
- Meta(LLaMA): 大規模な言語モデルである LLaMA(Large Language Model Meta AI)を開発。ソーシャルメディアプラットフォームでのコンテンツモデレーションや、自然言語理解を強化するために利用されています。
AI プロダクト開発において、単一のプラットフォームに過度に依存することは避けるべきです。依存リスクとしては、以下の点が挙げられます。
- サービスの変更や料金改定: 一つのプラットフォームに依存すると、サービスの変更や API 利用料金の急増により、業務に重大な影響を受ける可能性があります。
- データのプライバシーとセキュリティ: プラットフォームに提供するデータの取り扱いについて、データ漏洩や不正使用のリスクがあります。プライバシー侵害の可能性も考慮する必要があります。
- 技術進展への適応: プラットフォームの技術やサービスが更新される際、それに迅速に対応できない場合、競争力を失うリスクがあります。
4.2 AI 倫理
AI 技術の進展に伴い、その利用における倫理的配慮はますます重要となっています。AI が社会に及ぼす影響は非常に大きく、誤った使用や偏ったデータに基づく判断が大きな問題を引き起こす可能性があります。例えば、AI による自動化された意思決定システムが不公平な結果を導いたり、プライバシーを侵害したりするリスクがあります。したがって、AI 開発者やプロダクトマネージャーは、技術の導入に際して倫理的な考慮を欠かさずに行う必要があります。
- 公平性: AI システムが特定のグループに対して偏見を持たないようにすることが重要です。データセットのバイアスを排除し、アルゴリズムの透明性を確保することが求められます。
- プライバシー保護: ユーザーの個人情報を適切に保護し、不正アクセスやデータ漏洩を防ぐための強固なセキュリティ対策を講じる必要があります。
- 説明責任: AI の意思決定プロセスが透明で説明可能であることを確保し、ユーザーがその判断に納得できるようにすることが重要です。
AI 倫理の問題は技術的な側面だけでなく、法規制や社会的受容性と密接に関連しています。AI プロダクト開発においては、倫理的な配慮を欠かさず、法規制に準拠し、社会的受容性を高めるための取り組みが求められます。これにより、安全で信頼性の高い AI 技術の普及が可能となります。
プラットフォーマーの動向と AI 倫理は実は密接に関わっていますので、そこも把握しておくことが好ましいと考えています。プラットフォーマー同士は競争しており、その競争に勝つ必要があります。一方で AI 倫理はそのブレーキともなり得ます。このことについてどのよう考えるべきか、という問いが残っています。個人的には AI がより社会と統合していけば行くほど知性の重要性は低下し、倫理の重要性が向上するのはプロダクトマネジメントに限ったことではないと思っています。
4.3 web3
AI は知的労働を促進し、社会の価値観の良い部分と悪い部分を大幅に拡大する可能性があります。例えば、効率の向上や新しいビジネスチャンスの創出と同時に、不公平なバイアスの増幅やプライバシー侵害のリスクも高まります。こうした中で、AI 倫理の重要性が増していますが、規範だけに頼るのは限界があります。
AI は、人間のやっていることを拡張することができます。例えるなら、我々が行動を起こす時、背中にジェットパックを背負うイメージです。いい方向に向かってジェットパックを付ければパフォーマンスが上がりますが、きちんとマネジメントできていなければ、より悪い方向に向かうリスクがあります。そのジェットパックが AI なのです。
ローレンス・レッシグは、規範の他に(1)法、(2)市場、(3)アーキテクチャ(またはコード)の 4 つを倫理と規制の要素として挙げています。特にアーキテクチャが重要であると彼は強調しており、技術自体が倫理的問題の解決に寄与する可能性を指摘しています。
(The pathetic dot theory or the New Chicago School theory was introduced by Lawrence Lessig in a 1998 article and popularized in his 1999 book, Code and Other Laws of Cyberspace. )
このアーキテクチャの観点から、Web3 は AI 倫理の技術要素として重要な役割を果たします。Web3 は、分散型ネットワークとブロックチェーン技術を基盤とし、データの透明性とプライバシー保護を強化します。これにより、ユーザーは自身のデータをコントロールし、AI システムが公正かつ透明に運用されることを保証します。分散型の特性により、データの不正使用や集中管理のリスクを低減し、AI の倫理的運用を支援します。
このように、AI 倫理の実現には、規範に加え、法的規制、市場メカニズム、そして Web3 のような技術的アーキテクチャが不可欠です。これらの要素を統合することで、倫理的で持続可能な AI の活用が可能となります。
5. ユーザーインターフェースと UX
5.1 チャット UI の優位性
AI を既存のサービスと統合するときにまず検討すべき UI はチャット UI と考えています。チャット UI(ユーザーインターフェース)は、現代のユーザーが最も慣れ親しんでいるインターフェースの一つです。メッセージングアプリやカスタマーサポートチャットボットの普及により、多くのユーザーがテキストベースの対話形式に期待を寄せています。ユーザーは自然言語で質問をしたり、指示を出したりすることに慣れており、直感的に操作できるため、学習コストが低いです。
チャット UI は、ハイブリッドモデルを適用しやすい点でも優れています。チャットの向こう側にいるのが人間であれ、AI であれ、ユーザーにとっては(上記で書いたように明示する必要はあると思ますが)同じ一貫した体験を提供することが可能です。これにより、ユーザーは AI と人間の違いを意識することなく、シームレスなサポートを受けることができます。さらに、AI が処理できない複雑な問い合わせに対しては、人間のオペレーターが対応することで、高いレベルの顧客サービスを維持できます。
5.2 AI サービスの差別化
プロトタイピングは新しいアイデアを迅速にテストし、ユーザーフィードバックを得るための重要な手法ですが、その限界も認識する必要があります。特に、GPTs(OpenAI のカスタムバージョンの ChatGPT)などの AI ツールを用いる場合、プロンプトを書くだけで一見して何かを作っている感覚に陥りがちです。しかし、実際には深いユーザー体験や持続的な価値を提供するための本質的な部分が欠けていることがあります。
プロトタイプは、製品の初期段階を視覚化し、アイデアの検証に役立ちますが、ユーザー体験の持続性と実用性を評価するには不十分な場合があります。ユーザーがプロトタイプを使って得る体験が一時的であったり、実際の使用環境とは異なる場合、プロトタイプの成功は必ずしも製品の成功を保証しません。
- 深いユーザーインサイトの欠如: プロトタイプを通じて得られるフィードバックは限られており、ユーザーの深いインサイトを引き出すには不十分です。ユーザーが長期間使用した際の満足度や実際の利用状況を正確に反映できないことがあります。
- 実用性の評価不足: プロトタイプは通常、限定的な機能や簡略化されたシステムで構築されるため、実際の運用環境でのパフォーマンスや耐久性を評価することが困難です。これにより、リリース後に予期しない問題が発生するリスクがあります。
GPTs を用いたプロトタイピングでは、プロンプトの作成だけで完成品に近いものができたと錯覚する危険性があります。実際には、ユーザーの期待に応え続けるためには、持続的なユーザー体験と実用性を重視した詳細な設計と開発が必要です。
このように、プロトタイピングは有用な手法ですが、その限界を認識し、ユーザー体験の持続性と実用性を確保するための追加的な取り組みが必要です。継続的なユーザーテストと実環境での試用を通じて、製品の品質とユーザー満足度を高めることが重要です。
6. AI がもたらす人間および労働の変容
6.1 知識労働の AI 代替
AI の知識労働における代替は、19 世紀の蒸気機関による肉体労働の代替と類似しています。蒸気機関は工業革命を推進し、製造業や輸送業の効率を飛躍的に向上させました。同様に、AI は情報処理、データ分析、意思決定支援などの知識労働を自動化し、これまで人間が担ってきた複雑な業務を迅速かつ正確に行う能力を提供します。この技術革新は、生産性の大幅な向上とコスト削減をもたらし、企業の競争力を高めると期待されています。
マーク・アンドリーセンが「Software is eating the world」と述べたように、ソフトウェアはすべての産業に影響を与えました。同様に、AI の進展もすべての産業において変革をもたらすでしょう。 https://a16z.com/why-software-is-eating-the-world/
なお近年(2023 年 10 月)、マーク・アンドリーセンは「The Techno-Optimist Manifesto」という記事を書きました。 https://a16z.com/the-techno-optimist-manifesto/
技術革新が人類の未来に対して非常にポジティブな影響を与えるという信念に基づいて書かれた宣言です。このマニフェストは、以下の主なポイントを強調しています。
- 技術の力: 技術は社会の問題を解決し、生活の質を向上させる力を持っている。過去の技術革新が医療、通信、エネルギーなどの分野で驚異的な進歩を遂げたように、今後も技術がさらなる飛躍をもたらすと信じている。
- 未来志向: 技術革新は未来の課題を解決する鍵であり、技術を通じて持続可能な社会を築くことができる。これには気候変動、エネルギー資源の枯渇、貧困の削減などが含まれる。
- 技術と倫理: 技術の進歩は倫理的な問題も伴うが、それらは技術そのものを否定する理由にはならない。むしろ、倫理的な課題に対する解決策も技術の進歩によって見出されるべきであると主張している。
- グローバルな視点: 技術革新はグローバルな視点から推進されるべきであり、技術の恩恵を全人類が享受できるようにすることが重要である。
個人的には、このマニフェストの技術革新に対するポジティブな姿勢や、技術が持つ問題解決の力については理解できます。確かに、技術の進歩は私たちの生活を多くの面で改善してきましたし、未来に対する希望を与えてくれるものです。
例えば、技術と倫理に関して、MIT の Probabilistic Computing プロジェクトでは、確率論的手法を用いることで、より透明で説明可能な AI システムの開発を目指しています。スパムフィルターで活用されるベイジアンフィルタ(確率計算の基礎として、ベイズ統計が使用されます。ベイズ推論は、事前知識と新しいデータを組み合わせて確率分布を更新する手法)がこうした技術の一例です。医療 AI スタートアップでは統計学をバックグラウンドとするプログラミング言語 R 言語チームと、機械学習をバックグラウンドとするプログラミング言語 PYTHON 言語チームがお互いにせめぎ合っているような事例を聞いたりもします。
しかし、以下の点については懸念を持っています。
- 技術の格差: 技術の恩恵が全ての人々に公平に行き渡るわけではない現実があります。技術の進歩が一部の人々や地域に集中し、既存の格差を拡大する可能性があります。
- 倫理的問題の軽視: 技術が倫理的な問題を解決するという見方は理想的ですが、実際には技術が新たな倫理的問題を引き起こすこともあります。例えば、プライバシーの侵害や AI によるバイアスなど、技術の進歩が社会に深刻な影響を与えるケースも少なくありません。
- 技術依存のリスク: 技術に過度に依存することで、人間の基本的な能力や判断力が低下するリスクがあります。技術の進歩に伴い、私たち自身の能力をどのように維持し向上させるかも重要な課題です。
- 環境負荷: 技術革新が環境に与える負荷も無視できません。持続可能な技術開発を推進するためには、環境への影響を最小限に抑える取り組みが必要です。
このように、技術の力を最大限に活用しつつ、その影響を慎重に見極めるバランスが求められます。技術楽観主義に基づく未来志向の考え方は重要ですが、その実現には慎重なアプローチと多様な視点からの検討が必要と思っています。
6.2 感情労働の台頭
経営の仕事の大部分は、実は知的労働ではなく、感情労働の重要性にシフトしてきていると感じています。経営やチームマネジメントにおけるベストプラクティスが方法論化され、AI の台頭によりその知識を手軽に活用できるようになったためです。経営者やマネージャーは、従業員のモチベーションを維持し、チームの士気を高めるために感情的なサポートを提供する必要があります。また、顧客との信頼関係構築やクライアントとの長期的なパートナーシップを築くためにも、感情労働が不可欠です。これにより、企業の成功は、単なる知識や技術の管理だけでなく、人間関係の管理にも大きく依存しています。
AI と人間の協働モデルは、感情労働の分野で特に有望です。AI はデータ分析やタスクの自動化で効率を高める一方で、人間は感情的なインテリジェンスや共感を提供します。この協働モデルにより、業務効率と顧客満足度の両立が可能となります。例えば、AI が顧客の感情状態をリアルタイムで分析し、最適な対応方法を提案することで、従業員はよりパーソナルな対応ができます。さらに、AI が日常業務をサポートすることで、従業員はよりクリエイティブな問題解決や戦略的な業務に集中できるようになります。
AI 時代において求められるのは、高い知性や金銭的な成功ではなく、高い倫理感やより良い感性なのかもしれません。
まとめ
AI と人間の協働による価値創造のモデル
価値 (V) は以下の要素によって定義されます:
- AI model intelligence (A):AI モデルの知性
- Service Integration (S):サービスの統合
- Human Transformation (H):再帰的に起こる人間の変化
- AI Ethics (E):AI 倫理
- Technological Ethical Supplement (T):Probabilistic Computing や web3
これらの要素を組み合わせて、価値を表す数式を以下のように展開します:
この数式は、以下のように解釈できます:
- AI model intelligence (A) と Service Integration (S) の掛け合わせが、AI 技術とその実装による初期的な価値を生み出します。
- その価値が、再帰的に起こる人間の変化 H_i の総和によりさらに増幅されます。ここで、i は異なる変化の要素を表し、これらの変化が積み重なることで全体の価値が向上します。
- AI Ethics (E_j) はリスク要因として、価値の減少要素になります。ここで、j は異なる倫理的リスクの側面を表し、これらのリスクが増えることで価値が減少します。このリスクは、分母に位置づけられ、全体の価値に逆比例して影響を与えます。
- Technological Ethical Supplement (T_k) は、これらのリスク要因に対する技術的な補完として機能します。ここで、k は異なる確率計算や web3 の要素を表し、これらが掛け合わさることでリスクが軽減され、全体の価値が増加します。
このように、各要素が複雑に絡み合い、相互作用することで、AI と人間の協働モデルが多面的な価値を創出することを示しています。リスク要因である AI 倫理を適切に管理し、Technological Ethical Supplement である Probabilistic Computing や web3 を活用することで、価値の最大化が図られます。
(この記事は AI によるサポート受けながら書きましたが要旨は筆者によって固められています)