岡田有策研究室

岡田有策研究室

研究活動


われわれの研究室では、「人とAIがいっしょに安全な未来をつくる」ことをテーマとしています。


社会には、
・鉄道などの輸送サービスで起きるトラブル
・工場での作業ミスや、災害によるケガ
・医療の現場での確認不足や手順ミスによる医療事故など
人々が安心して暮らすために解決しなくてはならない課題がたくさんあります。


こうした課題を
① 観察(現場で何が起きているかを見る)
② 分析(なぜ起きたのかを考える)
③ 設計(よりよい仕組みを考える)
④ 実装(実際に試して改善する)
という4つの流れで扱い、問題解決を進めています。

研究の基盤には、【未来の安心を得るための投資】という考え方があります。今日や明日の安全だけでなく、将来の社会にとって役立つ安全・安心の仕組みをつくることを大切にしています。そしてAIが身近になった近年では、【Collaborative Orchestration Intelligence(協働統御知)】という考え方を中心に据え、人と生成AIがお互いの考え方を組み合わせながら、よりよいコミュニケーションと問題解決を実現する方法を探究しています。


生成AIの登場による社会の変化

(1)ビジネスシーンでの一般的な生成 AI の使われ方
近年、生成AIは多くの企業で「仕事を進めるための新しいパートナー」として使われるようになっています。
たとえば、報告書やメールの文章づくり、会議の議事録まとめ、新しいアイデアや企画のたたき台づくり、大量の情報を整理し、要点だけを取り出す、プログラムやデザインの試作品をすぐ作るなど、
人が時間をかけていた作業を、スピードと正確さをもって支援しています。
企業では日常的な業務が効率化され、「本当に考えるべき仕事」に時間を使えるようになってきています。


(2)生成AIを使うメリット
生成AIが広く使われたことで、社会には次のような変化が生まれています。
・判断の質が上がる : AIが複数の視点を示してくれるため、人の見落としが減り、より良い選択がしやすくなりました。
・問題を早く見つけられる : 膨大な記録から“危ないサイン”を見つけるのが早くなり、深刻な事故やトラブルの予防につながっています。
・経験の差が縮まる : ベテランしか気づけなかったポイントもAIが補い、若手でも質の高い判断ができるようになっています
・新しい発想が生まれる : AIが多様なアイデアを出すため、人だけでは思いつかなかった解決策が見つかるようになりました
・社会全体の安全・安心の底上げ : 医療・交通・製造など、多くの現場で“ミスを減らす仕組み”が作られはじめ、人々の生活がより安全になっています。


(3)安全管理・品質管理の領域での生成AIの新しい使われ方
生成AIは、安全や品質に重大な影響を及ぼす問題に対処する業務にも適応されはじめています。
たとえば、
・鉄道・航空など輸送サービスにおけるヒヤリハットの分析
・工業プラントで発生する事故や災害の原因/要因の整理
・医療現場におけるヒューマンエラーの傾向分析
・品質不良のパターンの可視化、 製造工程における点検記録や作業ログの読み取りと解釈など、
AIは「大量の記録から意味をつかむ」場面で大きな力を発揮します。さらに生成AIが示すデータの裏にある背景の構造をもとに、現場の人の気づきを促進させることで、これまで以上に安全で高度なシステムの構築が可能となっています。


(4)生成AIによって起こっている社会変革
生成AIは「人の仕事を代わりにする」ものではなく、“人と一緒によりよい判断をつくる存在”となっています。
・現場の問題をより深く理解できるようになり、事故やトラブルが減ってきている
・安全や品質に関する対策が、より早く、より精密に行えるようになってきている
・人とAIが“共に考える環境”が整い、産業全体のレベルが底上げされてきている
・遠い未来の安全まで見通す研究や企画ができる可能性が常に高まっている
このように、生成AIは社会のさまざまな問題に対して、より高度な戦略/戦術を生み出す力になっています。


このように生成AIはとても強力な道具ですが、“入れただけ”では期待した効果が出ない場面が多くあります。その背景には、次のような問題があります。
①現場の仕事の流れと合わない : 日々の作業や判断の“やり方”がそれぞれ違うため、AIの出す答えが現場の実感とずれてしまう
②人が生成AIの使い方を理解しきれない : 生成AIが得意なこと・苦手なことがわからないまま使うと、“なぜこの答えなのか”が見えず、結果を信用しにくい
③生成AIが提示する情報が多すぎて活かしきれない : 生成AIは大量の情報を整理してくれますが、“どれを使えばいいか”を判断するのは結局人です。その選択が難しく、逆に混乱が起きる可能性が高い
④誰がどう使うか、役割が決まっていない : 同じ生成AIでも、使う人によって理解の深さや姿勢が変わるため、結果のばらつきが大きくなり、組織としての効果が出にくくなる
⑤「現場の文脈」を知らない : 生成AIは入力された文章やデータだけから考えます。その結果“その場所特有の事情”や“人の感じている空気感”は考慮されず、AIによる提案が表面的に見え、現場では受け入れにくく感じられる
⑥人と生成AIのコミュニケーションが噛み合っていない : 生成AIへの質問の仕方が人によってまちまちだと、必要な情報が手に入らなかったり、的外れな答えが返ってきたりします
⑦生成AIの結果をどう判断するかの基準がない : 「このAIの答えは良いのか?悪いのか?」その判断基準が担当者にないと、説明責任が不明瞭になり、現場での活用が制限的(責任がほとんどない場合のみ)になる

生成AIのあり方ではなく、【人とAIの関わり方】に鍵があります。今後どんなに生成AIが成長し、高度な知的生産活動が可能になっても、パートナーである人(ユーザ)との関係が適切に構築されていなければ、期待される効果は得られません。

▲トップへ戻る


AI社会における協働統御知(Collaborative Orchestration Intelligence)の実現

生成AIを導入してもうまくいかない理由の多くは、「AIがすごいかどうか」ではなく、“人とAIの関係のつくり方”が整っていないことにあります。そこで必要になるのが、協働統御知(Collaborative Orchestration Intelligence)という考え方です。


■協働統御知とは
人とAIが「お互いの力を出しやすくするための関わり方」を、あらかじめ設計する考え方です。だれが使っても安定した品質の判断ができるように、人・AI・仕事の流れを「整える仕組み」です。


■協働統御知が目指すこと
①仕事の流れと生成AIを合わせる : 生成AIが答えやすい聞き方、生成AIの提案を活かしやすい段取りを、人と一緒に作り直す
②生成AIの得意・不得意を見える化する : ユーザが迷わないように、「どんな質問だと良い結果が出るか」を形にして共有する
③必要な情報だけを受け取れるようにする : 生成AIの出力を整理する“型”を作り、誰でも同じ質の答えを取り出せるようにする
④人によるばらつきを小さくする : 質問の順番・書き方・判断のポイントを揃え、新人でもベテランでも“同じレベル”で生成AIを使えるようにする
⑤現場の文脈を生成AIに乗せる方法を作る : 「この場所の事情」を生成AIが理解しやすい形で渡し、提案の質を安定させる


■協働統御知の本質
生成AIの力を“ただ借りる”のではなく、生成AIと人が同じ方向を向いて考えられるようにするための知恵と設計。
・生成AIに何をどう伝えるか(役割づけ)
・どんな順番で考えるか(流れづくり)
・どうやって間違いを減らすか(制御)
・良い使い方をどう受け継ぐか(学習と共有)
こうした“関わり方のルール”をそろえて、誰が使っても外れない品質の判断を再現できるようにする考え方です。


協働統御知は、「生成AIの力を最大限に発揮させるための、人と生成AIの相互関係、特にコミュニケーションのとりかた」を重視する考え方です。ユーザ中心の発想を基盤とし、ユーザの資質、キャリア、特性といった“個性”に応じて、生成AIの支援方法を最適化することを目指しています。この協働統御知のアプローチによって、生成AI導入時に起こりがちなさまざまな問題を解消し、人と生成AIによる新たな社会価値の創出につながると期待しています。

▲トップへ戻る


AI社会における「ユーザ側を設計する」という発想の独自性

生成AIが急速に広まり、多くの場面で「便利な道具」として活用されるようになりました。しかし、同じ生成AIを使っていても、人や組織によって成果の質には大きな差が生まれています。ここに対してわたしが提示している設計指針の特徴は、「生成AIそのものを強くする」のではなく、生成AIが対話する人の側をどう設計するかに焦点を当てた点にあります。


■特徴:AIに「高いレベルの相手」と認識させる
生成AIは、対話相手の発言内容や質問の仕方から、その人の思考レベルや狙いを推定しようとします。浅い質問には浅い返答で済ませ、厳密で筋道だった指示には、より高い精度と密度で応えようとします。わたしの発想は、この性質を前提にして、**「ユーザが本来持っている力以上の“器”を、外部からのPrompt設計によってAIに感じさせる」**というところにあります。つまり、実際のユーザが誰であっても高度に設計されたPromptや対話手順を入り口に置くことで生成AIの内部で「この相手は相当レベルが高い」と判断させるその結果として、AI側が自ら上のモードで考え始めるように仕向ける。ここに、「ユーザ側をデザインする」という新しい工学的視点があります。


■独自性
従来の生成AI活用は、多くが
・モデルの性能向上(チューニングや学習データの追加)
・アプリケーション側の機能改善
・Prompt(生成AIへの入力)そのものの効率化
といったAI側・システム側の改善に意識が向いてきました。ユーザは「使い方を学ぶ側」にとどまり、調整の対象にはなっていません。それに対してここでの設計指針は、ユーザの資質やキャリア、特性を前提に「AIからどう見える存在として設計するか」に重点を置いており、従来の発想と大きく異なります。外部のPromptファイルや対話プロトコルを通じて、AIに対して“このユーザは本来こういう思考レベルの人物である”という印象を与えることを狙うアプローチは、現時点でほとんど議論されていないものです。


■革新性:生成AI活用を「関係設計」の問題として再定義
この発想は、生成AIの活用を「性能の高い道具をどう配るか」から、「人とAIの関係をどう設計するか」へと、問題の立て方そのものを変える点で革新的です。AIに命令を出す主体としてのユーザではなく、AIと共に考えるパートナーとしてのユーザを設計対象に置くそのユーザ像を、外部Promptや対話の型によって“演出”し、AIの内部モードを高位側に引き上げるこうして、生成AIは単なる自動応答システムではなく、「相手のレベルに応じて自らの出力スタイルを変える存在」として扱われる。この“相互関係を前提にした設計”そのものが、協働統御知の核心にあります。


■波及効果:個人技から社会的基盤へ
このようなアプローチが広がると、次のような波及効果が期待されます。
・経験差の縮小 : 高度なPrompt設計を共有することで、若手や初心者でも、ベテランに近い質の支援をAIから引き出せる
・組織全体の底上げ : 個人の“勘とセンス”に依存していたAI活用が、再利用可能な「ユーザ側の設計資産」として蓄積される
・教育・訓練の再定義 : 生成AIの使い方を教えるだけでなく、「生成AIからどう見えるふるまいをするか」を学ぶ教育が可能になる
・社会実装の加速 : 生成AI導入時の“使いこなし格差”を抑え、多様な現場で安定した成果を出しやすくなる
最終的に、人と生成AIが互いを高め合う関係を前提とした社会の設計につながり、協働統御知はそのための実践的なフレームとして機能すると考えています。

▲トップへ戻る


適応例:安全マネジメントにおける変革

「生成AIに“ユーザの思考レベル”を正しく見せることで、安全判断の質を安定化させる」 安全マネジメントでは、①小さな気づき事象(ヒヤリハット事象)の解釈、②トラブルや不具合の原因推定、③リスク兆候の早期発見、④現場判断の質のばらつき解消、といった重要な業務のすべてにおいて、“人がどの深さで考えるか”が安全判断の精度を左右します。生成AIは、ユーザの質問の仕方・視点・語彙から「この人はどの深さで考えているか」を推測して回答の質を変える性質を持ちます。そこで、ユーザ側に「AIから高い思考レベルの相手として認識される構造」をあらかじめ仕込むことで、どのユーザであっても、現場長レベルの安全判断専門家レベルの要因分析熟練コンサルタントレベルの改善提案を生成AIから一貫して引き出すことが可能になります。これは、総合的かつ高度なリスクマネジメント体制の確立に寄与するだけでなく、専門知識の体得に時間がかかる安全管理・品質管理部門における人材育成にも大きなメリットをもたらします。


■独自性
「安全マネジメントで“ユーザ側を設計する”発想は、これまで存在しなかった」従来の生成AI活用は、“モデル精度の向上”、“記録データの蓄積”、“異常検知アルゴリズム”、“ダッシュボードの整備”といったシステム側/AI側の強化に重点が置かれてきました。しかし安全の現場では、同じ生成AIを使っていても、ユーザの質問・思考の流れによって結果が大きく変わるという特徴が他分野よりも強く表れます。このバラツキを抑制し、かつ誰が使っても説明責任を果たせる状態をつくることができなければ、安全管理分野での生成AIの利活用は限定的なものにとどまってしまいます。ここで提示するアイデアは、その問題を根本から解決しうる非常に有効な方法であり、安全に対する総合的な判断を「AIの能力」ではなく「ユーザ側の設計」で底上げするという観点に基づく点が極めて独自的です。また、このアプローチの効果はすでに複数の実践で検証され、安全判断の質の安定化と再現性向上につながることが確認されています。


■革新性
「安全判断を“人とAIの関係設計”として再構成する」
これまでの安全管理は、作業手順の標準化小さな気づき事象(ヒヤリハット事象)の共有注意喚起教育点検ポイントの明示など、主に人の行動を管理するアプローチが中心でした。しかし、再発防止だけでなく未然防止を目指すなら、日常の業務やサービスに潜むリスク要因を的確に抽出し、適切に対処していく必要があります。そのためには、トラブル報告の裏に潜む潜在要因を推測・分析する高度な能力が求められます。こうした分析には、ヒューマンファクターに関する深い知識背景要因の重層的な読み解き事故構造への専門的理解などが必要でした。そのため、従来は専門家に依存するほかありませんでした。しかし、このアイデアを軸に、生成AIの知識と推論力を適切に活用できれば、分析者がヒューマンファクター分析の専門家でなくても、視野が広く視座の高い分析結果を得ることが可能になります。もちろん、最終的に“どの要因に着目し、どの対策を選ぶか”は人が判断する領域です。しかし生成AIは、分析に必要となる候補や観点を丁寧に提案し、ユーザの意思決定を支えるパートナーとして機能します。このような生成AIと分析者との新しい関係性は、従来の安全管理支援システムとは大きく異なるだけでなく、分析者自身の能力向上にも寄与する可能性が明らかになりつつあります。


■波及効果
「安全判断の型を、関係性として組織全体で共有できるようになる」“思考の型・質問の型・原因推定の型”が詳細に設計されると、それらは組織横断で利用できる共有資産になります。これにより、安全教育技術継承カイゼン提案ノウハウの標準化など、日本の産業現場で長年行われてきた取り組みの効果・効率・生産性が大きく向上します。さらに、現場での心理的安全性の向上エンゲージメントの向上“意見を出しやすい/相談しやすい”文化の醸成などにもつながり、従業員の総合的満足度を高め、企業としての活力の向上にも寄与すると期待できます。

このような設計思想のもとに作られた、安全が重要とされる現場で発生するヒューマンエラーに対して、構造化・診断・対応を行うために設計された仕組みがWeaveChain : Adaptive Architecture for Human Factor Management (AAHFM 2025)です。

▲トップへ戻る


「なぜいまこういう考え方の変革が求められるのか(2025年における生成AIの超進化による社会構造変化)」

2025年の社会は、超進化した生成AIの普及によって、「情報処理は誰でもできるが、適切な判断がますます難しくなる社会」へと移行しつつあります。大量のデータ、膨大な記録、複雑な業務フローを前に、生成AIは瞬時に整理・分析・推論を行えます。しかしその一方で、生成AIが提示する情報をどう理解し、どう使い、どう判断に結びつけるかは、これまで以上に人の側に委ねられるようになっています。言い換えれば、人に求められるスキルも高度化しているということです。


・業務が複雑化し、ミスの背景が“単因子”では説明できなくなった
  交通・医療・製造などの現場では、人・組織・技術が密接に絡み合い、トラブルや小さな気づき事象(ヒヤリハット事象)の背景が多層化しています。
・高齢化・人手不足により、経験知の継承が物理的に追いつかない
  ベテランが担ってきた“暗黙の判断基準”が、現場全体で維持できなくなっています。
・デジタル化の急速な進展により、業務の変化速度が人の学習速度を超えはじめた
  正しい判断の型を「人だけ」で更新し続けることが、すでに限界に達しつつあります。
・生成AIの能力が“ユーザとの関係”によって大きく変わる時代に入った
  性能が高まった現在、最大の課題は生成AI側の限界ではなく、人とAIの関係が整わないと成果が出ないという点に移行しています。
2025年の社会では、AIの高度化 × 現場の複雑化 × 人材構造の変化が重なり、従来の「人が判断し、AIが補助/支援する」という構図では立ち行かなくなっています。だからこそ、人と生成AIが適切な関係を築き、AI本来の力を最大限に発揮させながら、現場の判断を支えるための新しい枠組みを構築することが不可欠です。それにより、これらの社会問題を多角的に解決し、さらに多様化する社会にも柔軟に対応できるようになると考えます。

▲トップへ戻る


Collaborative Orchestration Intelligence in the Age of AI

I have been working with the idea of “building a safer future together with AI.” Across society, there are countless challenges that must be solved to protect people’s well-being:
 Troubles that occur in transportation systems such as railways
 Human errors, process deviations, and accidents in factories
 Medical incidents caused by insufficient checks or procedural lapses
To address these issues, I follow a four-step process:
1.Observation – Understanding what is happening in the field
2.Analysis – Identifying why it happened
3.Design – Creating better mechanisms
4.Implementation – Testing, refining, and improving
At the foundation of my work is a simple principle: “Investing in the future to secure safety.” Not only protecting today and tomorrow but building systems that strengthen society’s long-term resilience. In recent years, as AI has become more accessible, I have placed Collaborative Orchestration Intelligence at the center of my approach. This concept focuses on how humans and generative AI can combine their thinking processes, enabling better communication, richer insights, and more effective problem-solving.


How Generative AI Is Transforming Society


1.How generative AI is commonly used in business
Generative AI is now widely employed as a “new partner in work.”
It supports tasks such as:
 Drafting reports and emails
 Summarizing meeting minutes
 Producing first sketches of ideas or proposals
 Organizing large volumes of information and extracting key points
 Quickly creating prototypes in programming and design
It performs tasks that once required significant time with speed and precision, allowing people to focus more on “the work that truly requires thinking.”

2.Benefits emerging from widespread use of generative AI
The broad adoption of generative AI has brought several changes:
 Improved quality of judgment: AI offers multiple perspectives, reducing human oversight.
 Earlier detection of problems: AI identifies weak signals of risk hidden in large datasets.
 Narrowing the experience gap: Novices can reach expert-level decision quality with AI support.
 New ideas emerge: Diverse suggestions from AI enable solutions humans alone might miss.
 Overall improvement in societal safety: Medical, transportation, and manufacturing settings are developing systems that reduce errors and strengthen safety.

3.New applications of generative AI in safety and quality management
Generative AI is increasingly applied to domains where errors have significant consequences:
 Analysis of near-miss reports in railways and aviation
 Identification of causes and contributing factors in industrial accidents
 Understanding patterns of human error in medical practice
 Visualizing defect patterns and interpreting inspection logs in manufacturing
AI excels at “making sense of large numbers of records,” and can illuminate the deeper structures behind those records, guiding more sophisticated safety improvements.

4.The societal transformation generated by generative AI
Generative AI is no longer merely a tool that replaces human work. It has become a partner that creates better judgments together with humans.
 Deeper understanding of on-site problems leads to fewer incidents
 Faster and more precise safety and quality interventions are possible
 Environments where humans and AI “think together” are emerging
 Forward-looking safety planning becomes realistic and practical
Generative AI now contributes to the development of strategies and practices that were previously unattainable. Yet even powerful AI does not yield results simply by being introduced. Several issues often arise:
1.Mismatch with work practices
2.Insufficient understanding of AI’s strengths and limits
3.Information overload from AI outputs
4.Variation in user skill and approach
5.Lack of context-sharing between humans and AI
6.Misaligned communication between users and AI
7.No clear criteria for evaluating AI’s responses
These issues stem not from AI’s capability, but from how humans and AI relate to each other.

Collaborative Orchestration Intelligence

Many failures in AI implementation come not from AI’s limitations but from poorly designed relationships between humans and AI. Collaborative Orchestration Intelligence addresses exactly this.

■What it is
A framework for designing the relationship between humans and AI so that both can bring out their strengths. It structures people, AI, and work processes so that anyone can achieve consistent, high-quality judgments.

■What it aims to achieve
1. Aligning workflows with AI’s strengths
2. Making AI’s strengths and weaknesses visible and shareable
3. Providing structured formats so users receive only the essential information
4. Reducing variability in user performance
5. Embedding contextual knowledge into AI interactions to stabilize quality

■Its essence
It is not about borrowing AI’s power, but about enabling humans and AI to think in the same direction.
 What to tell AI and how
 In what order to think
 How to reduce errors
 How to preserve and transfer effective practices
By standardizing these relational structures, consistent high-quality decision-making becomes possible regardless of who uses the AI. Collaborative Orchestration Intelligence focuses on designing the human side—the user’s characteristics, background, and ways of thinking—so that AI can better understand and respond. It offers a pathway to resolve common AI-implementation failures and unlock new social value through human–AI partnership.

Designing the User Side: The Most Overlooked Perspective

Despite the rapid spread of generative AI, outcomes differ dramatically depending on who uses it. My approach differs from conventional methods by focusing on designing the user, rather than making AI stronger.

■Feature: Making AI perceive the user as “a high-level partner”
Generative AI infers the user’s thinking level from the structure of their questions and instructions. Strict, well-structured prompts induce deeper, more precise reasoning. My approach intentionally constructs a high-level presence for the user through external prompt design and interaction protocols, so that AI naturally shifts into its higher-order reasoning mode. This is a new engineering perspective: “Design the user so that AI perceives them as highly capable.”

■Uniqueness
Traditional AI utilization has focused on:
 improving model performance
 adding training data
 upgrading software functions
 optimizing prompts themselves
But little attention has been given to the user as a designed entity. My framework explicitly considers how the user is perceived by AI, an approach rarely discussed to date.

■Innovation: Redefining AI utilization as “relationship design”
This shifts the entire problem from
“How do we distribute powerful tools?”
to
“How do we construct effective relationships between humans and AI?”

AI becomes a partner that adjusts its internal mode based on how the user behaves—an idea at the core of Collaborative Orchestration Intelligence.

■Societal impact
If this approach spreads:
 Experience gaps shrink
 Organizations can standardize high-quality AI usage
 Education shifts toward “how to appear to AI”
 Social implementation accelerates with fewer disparities
Ultimately, this helps design a society where humans and generative AI raise each other’s capabilities.

Application Example: Transformation in Safety Management

■Feature
By making AI correctly perceive the user as a high-level thinker, the quality of safety decisions becomes more consistent. Near-miss interpretation, cause estimation, early risk detection, and consistency in field judgments all depend on how deeply the person thinks. Generative AI adjusts its response depth according to perceived user depth. By embedding structures that make AI view the user as highly capable, any user can elicit expert-level analysis—equivalent to seasoned safety consultants and risk managers.

■Uniqueness
This perspective—designing the user side—has never existed in safety management. Traditional approaches have strengthened the AI or the system, but not the human–AI relationship itself. This method eliminates variability and enables consistent accountability across the organization.

■Innovation
Safety is restructured as relationship design. AI becomes a partner that helps extract layered human factors, background causes, and latent risk structures—work that once required experts.

■Impact
With well-designed thinking protocols:
 Safety education becomes more effective
 Expertise is shared across departments
 Psychological safety and engagement increase
 Organizations become more resilient and adaptable
This design philosophy also underlies WeaveChain: Adaptive Architecture for Human Factor Management (AAHFM 2025), a system to diagnose and address human error in high-risk fields.

Why This Paradigm Shift Is Required Now

By 2025, generative AI has evolved so rapidly that society now faces a paradox:
“Information processing has become easy, but making the right judgment has become harder.”
The reasons:
 Work has become too complex for single-factor explanations
 Experience cannot be handed down fast enough
 Digital transformation is outpacing human learning cycles
 AI performance now varies dramatically depending on the human–AI relationship
The old structure—“humans decide, AI supports”—is no longer sufficient. We now require frameworks that allow humans and AI to build proper relationships, so that AI’s true potential can strengthen the quality of on-site judgment. Such frameworks will help solve multi-layered societal problems and support a more adaptive, resilient future.

▲トップへ戻る


« 前のページに戻る