information

News

意思決定インテグリティ評価アーキテクチャ「DDIM™」を開発・特許を出願

この度、人およびAIが関与する意思決定の妥当性・透明性・説明責任を統合的に評価する
独自アーキテクチャ「DDIM™(Decision Data Integrity Model)」を開発し、社会実装を開始したことを発表いたします。

本技術は、DXおよびAI活用が高度化する現代において不可避となった「意思決定の品質」と「説明責任」を、構造的かつ数理的に検証可能とする評価基盤です。
なお、本アーキテクチャの中核技術については特許出願を行っております。

 

■ 背景

DXの加速とAIの業務実装が進む中で、多くの企業・行政機関が直面しているのが、
「なぜその判断に至ったのか」を十分に説明できないという課題です。

・AIの推論過程がブラックボックス化している
・プロジェクト判断が属人的・暗黙知に依存している
・経営判断の根拠が断片化し、一貫性の検証が困難
・説明責任を果たすための構造的手段が存在しない

 

Explainable AI(XAI)はAI出力の説明には寄与するものの、人を含む意思決定プロセス全体の“正当性”を評価する仕組みは存在していませんでした。

Massive Actはこの構造的ギャップに着目し、「意思決定インテグリティ」という新たな概念を定義。
その評価を可能とするアーキテクチャとしてDDIM™を設計しました。

 

■ 技術概要:DDIM™(意思決定妥当性評価AI)

名称:意思決定評価AIシステム(Digital Decision Integrity Model)
通称:DDIM™

DDIM™は、意思決定を結果ではなく、「主張・根拠・反証・出典」からなる構造体として捉えます。
AIはこれらを有向グラフとして整理し、以下の3軸で評価を行います。

・SV:妥当性(Validity)
判断の論理的整合性および根拠の強度を評価

・T:透明性(Transparency)
判断プロセスの追跡可能性・開示度を評価

・A:説明責任(Accountability)
役割分担・責任所在・再評価可能性を評価

これらを統合した指標 DDIMスコア により、
「その意思決定はどれだけ信頼できるのか?」を定量的に判定します。

さらに、
・影響度の高い要素の自動抽出
・根拠不足・偏りなど課題点の指摘
・生成AI(RAG)による改善案の自動生成

など、意思決定の改善サイクルをAIが自動化する評価×改善エンジンとして機能します。


■ 出願の位置付け

 

今回の特許出願は、DX・AI活用時代における「説明責任と透明性」の社会的要請に応えるため、
意思決定の正当性を科学的に評価するアーキテクチャを確立するものです。

DDIM™は以下の領域での活用を想定しています。

・経営判断の品質保証
・AI監査・モデルガバナンス
・行政の意思決定プロセスの透明化
・医療・公共領域における説明責任強化

本技術は、DX・AI投資の意思決定を第三者視点で検証・助言する一般社団法人 日本デジタル・アドバイザリー戦略協議会(JDACs)と共同で研究開発を進めており、
今後は第三者レビュー制度やアドバイザリー認定制度との連携も予定しています。

 

■ 今後の展望

Massive Actは、DDIM™ を軸として「透明性のあるDX」「責任あるAI活用」の支援をさらに強化してまいります。

さらに、顧客LTV予測AI「MACT INTELLIGENCE™」とのシナジーによる“循環型意思決定モデル”の構築にも取り組み、意思決定がより透明で、より正しく、より信頼される社会の実現を目指して技術開発を継続してまいります。

 

Page
Top

Contact

Download