AI用語一覧
Glossary — AI・機械学習・生成AIに関連する用語の解説
自律運営やAIエージェントを理解するために、よく使う用語をカテゴリ別にまとめました。検索ボックスで絞り込みもできます。
人工知能の基礎
-
パターン認識
Pattern Recognition
データのなかのパターンを見つけたり、種類分けしたりする技術。画像・音声・文字の認識など、機械学習の応用として伸びてきた分野。
-
シンギュラリティ(技術的特異点)
Singularity
AIが自分より賢いAIを生み、知能が急激に伸びるという想定上の転換点。倫理や社会への影響を論じる文脈で使われる。
-
エキスパートシステム
Expert System
専門家の知見をルールや知識ベースに落とし込み、推論で答えを出す仕組み。機械学習が広まる以前の、AIの代表的な形のひとつ。
-
ビッグデータ
Big Data
量・種類・更新の速さのどれをとっても、従来のやり方では扱いきれないデータ。AIの学習材料として使われ、性能向上の前提になっている。
-
中国語の部屋
Chinese Room
記号をいじるだけでは「理解している」とは言えない、という思考実験。AIに本当に理解があるかどうかの哲学的な問いで引き合いに出される。
-
深層学習
Deep Learning
層を何重にも重ねたニューラルネットで行う学習。画像・音声・言葉の処理で高い性能を出し、大規模言語モデルや画像生成の基盤となっている。
-
強いAIと弱いAI
Strong AI / Weak AI
「弱いAI」は画像認識や翻訳など、決まった課題にだけ使うAI。「強いAI」は人間並みの汎用知能を想定した概念で、まだ実在していない。
-
フレーム問題
Frame Problem
ある行動に本当に必要な情報と、そうでない情報をうまく切り分けることの難しさ。ロボットやエージェントを設計するときの話題になる。
-
データマイニング
Data Mining
膨大なデータのなかから、役に立つパターンやルールを掘り出す一連の作業。機械学習や統計を組み合わせ、ビジネス・研究の両方で用いられる。
-
チューリングテスト
Turing Test
審査員がテキストだけのやり取りで相手を区別できなければ、AIに知能があるとみなすという考え方。AIの定義を語るときによく引き合いに出される。
-
生成AI
Generative AI
学んだパターンから、テキストや画像・音声などを「つくり出す」AI。対話や要約・創作・コード生成に活用される。従来の「当てる」だけでなく「生み出す」ところが違い。
-
推論・認識・判断
Inference / Recognition / Decision
推論=手持ちの知識から結論を出すこと。認識=画像や音声などの入力の意味を読み取ること。判断=どれを選ぶか・どう動くかを決めること。AIが担う代表的な役割として語られる。
-
マルチモーダルAI
Multimodal AI
文章・画像・音声など、種類の違う入力をいっぺんに扱えるAI。ニーズの把握やコンテンツの理解を、いろんな角度から行う場面で用いる。
-
機械学習
Machine Learning / ML
データにもとづいてパターンやルールを身につけ、コードで逐一指定しなくても仕事をこなせるようにする仕組み。教師あり・教師なし・強化学習の三つに分けて語られることが多い。
-
AI(人工知能)
Artificial Intelligence
コンピュータが推論・認識・判断・学習といった知的な振る舞いをする技術全般。データからパターンを獲得し、人手でルールを書かずに課題を解く。いまは機械学習や深層学習ベースのシステムを指す用例がほとんど。
機械学習の概要
-
混同行列・適合率・再現率
Confusion Matrix / Precision / Recall
混同行列=予測と正解の対応を並べた表。適合率=「正と言ったもののうち本当に正だった割合」、再現率=「正のもののうち正と言えた割合」。偏ったデータの評価で重要。
-
強化学習
Reinforcement Learning
エージェントが環境に働きかけ、得られる報酬がなるべく大きくなるように振る舞いを学ぶ方法。ゲームAIやロボ制御・推薦に応用されている。
-
主成分分析(PCA)
Principal Component Analysis
データのバラつきが大きい軸(主成分)に押し込めて次元を減らす。可視化や前処理・ノイズ落としに用いる。
-
過学習・未学習・汎化性能
Overfitting / Underfitting / Generalization
過学習=練習データにだけぴったり合って、本番ではかえって悪くなる状態。未学習=モデルが足りず、まだ十分に覚えられていない状態。汎化性能=まだ見ていないデータでもどれだけ当てられるか。
-
SVM(サポートベクターマシン)
Support Vector Machine
「境界とデータの距離(マージン)を広げる」という考えの分類・回帰モデル。カーネルで曲がった境界も扱え、以前からよく使われてきた。
-
教師なし学習
Unsupervised Learning
正解ラベルなしのデータから、勝手にパターンや構造を見つけ出す学習。グループ分け・次元削減・異常検知などに用いられる。
-
特徴量・特徴量設計
Feature / Feature Engineering
モデルに渡す「データの表し方」。昔は人が特徴を設計していたが、深層学習では層が自分で効きそうな特徴を学ぶ。
-
Q学習・マルコフ決定過程
Q-Learning / Markov Decision Process
Q学習=「この状態でこの行動をしたときの価値(Q値)」を学ぶ強化学習の代表格。MDPは状態・行動・報酬・遷移を整理した数学的な枠組み。
-
交差検証・モデル評価
Cross-Validation / Holdout / Precision / Recall / F1
データをいくつかに分け、何度も「学習→評価」を回して性能を見積もる。正解率・適合率・再現率・F値・AUCなどで測る。
-
クラスタリング
Clustering
正解なしのデータを「似ているもの同士」でまとめる学習。k-meansや階層的クラスタリングなど、方法がいくつかある。
-
アンサンブル学習
Ensemble Learning
いくつかのモデルを並べて、その答えを合わせて使う。個々の苦手を補い合い、精度や汎化を上げる目的で用いられる。
-
分類と回帰
Classification / Regression
分類=カテゴリのような離散的な答えを当てる課題。回帰=売上や温度のような連続した数値を当てる課題。どちらも教師あり学習の典型的な形。
-
半教師あり学習・自己教師あり学習
Semi-supervised / Self-supervised Learning
半教師あり=ラベルありとラベルなしをいっしょに使う学習。自己教師あり=ラベルをデータから自動でつくって学ぶ。LLMの事前学習もここに含まれる。
-
決定木・ランダムフォレスト
Decision Tree / Random Forest
決定木=条件分岐の積み重ねで答えを出すモデル。ランダムフォレストはそれをたくさん束ねたもので、過学習に強く中身も追いやすい。
-
ロジスティック回帰・線形回帰
Logistic Regression / Linear Regression
線形回帰=数値の予測、ロジスティック回帰=二者択一の分類に使う線形モデル。シンプルで読みやすいため、まず試す基準としてよく用いられる。
-
教師あり学習
Supervised Learning
「入力」と「正解」のペアを与えて覚えさせる方法。分類や回帰に使われ、写真にラベルを付けて画像認識を覚えさせるようなイメージ。
ディープラーニングの要素技術
-
ResNet・スキップ結合
Residual Network / Skip Connection
入力をそのまま後ろの層に足し込む(スキップ)ことで勾配が流れやすくなり、深いネットが学べるようになった。ResNetがその代表。
-
正則化・ドロップアウト
Regularization / Dropout
やりすぎ学習を抑えるための工夫。L1・L2は重みを小さく押さえ、ドロップアウトは学習中にノードをランダムに切って使わないようにする。
-
転移学習・事前学習
Transfer Learning / Pre-training
別のタスクやデータで一度学んだモデルを、目的のタスクや少ないデータに流用する。計算やデータの負担を減らすのに有効。
-
勾配消失・勾配爆発
Vanishing / Exploding Gradient
層が深いと、逆伝播する勾配がほとんどゼロになったり、逆に blow up したりする問題。ReLUやスキップ結合・正規化で和らげる。
-
活性化関数
Activation Function
ノードの出力を「曲げる」ことで非線形にする関数。ReLUやシグモイド・tanh・ソフトマックスなどがあり、層を重ねたときの表現力の源になる。
-
オートエンコーダ・VAE
Autoencoder / Variational Autoencoder
入力を一度ギュッと圧縮してから元に戻すモデル。VAEはその「圧縮した空間」を確率で表し、そこから新しいサンプルを生成できる。
-
パーセプトロン
Perceptron
入力を重みづけして足し、閾値で〇か×かを出す、いちばんシンプルな形。これを何層も重ねたのが多層パーセプトロン(MLP)。
-
バッチ正規化・レイヤー正規化
Batch Normalization / Layer Normalization
層の出力を正規化して学習を安定させる。BatchNormはバッチごと、LayerNormは層のなかで正規化。Transformer では LayerNorm がよく用いられる。
-
誤差逆伝播法
Backpropagation
出てきた誤差を後ろの層から前に戻し、各重みの「直す向き」を求める方法。深いネットの学習の要。勾配が消えたり吹き出したりしないよう工夫が必要。
-
CNN(畳み込みニューラルネットワーク)
Convolutional Neural Network
畳み込みとプーリングの層で、画像の「局所的なかたまり」を拾い出すネットワーク。画像認識・物体検出・領域分割などでおなじみ。
-
ハイパーパラメータ
Hyperparameter
学習の前に人が決める値(学習率・層の数・バッチサイズなど)。グリッドサーチやランダムサーチ・ベイズ最適化で探す。
-
勾配降下法・学習率・エポック
Gradient Descent / Learning Rate / Epoch
勾配の向きに沿ってパラメータをちょっとずつ直していく、最適化の基本。学習率=一歩の大きさ、エポック=訓練データを一周する回数。SGDやAdamがよく使われる。
-
プーリング層
Pooling Layer
畳み込みの結果を「ブロックごとにひとつにまとめる」層。最大値や平均を取る方法があり、ずれに強く計算も軽くなる。
-
GAN(敵対的生成ネットワーク)
Generative Adversarial Network
「つくる側」と「見分ける側」が競い合いながら学ぶ仕組み。画像生成で一時代を築いたが、いまは拡散モデルが主役に。
-
入力層・隠れ層・出力層
Input / Hidden / Output Layer
入力層=データの入口。隠れ層=そのあいだで特徴を変換。出力層=最終的な答えを出す。層が深いほど表現の幅が広がる。
-
RNN・LSTM
Recurrent Neural Network / Long Short-Term Memory
時系列や「並んだデータ」を扱うネットワーク。RNNは過去を覚えるが勾配が消えやすい。LSTMはゲートで長期の依存も覚えやすくしている。
-
Adam・SGD(最適化アルゴリズム)
Adam / Stochastic Gradient Descent
SGD=ミニバッチごとに勾配でパラメータを更新。Adam=それに「勢い」と学習率の自動調整を足したもので、深層学習では定番。
-
ニューラルネットワーク
Neural Network
脳の神経のつながりをまねたモデル。ノードを何層にも並べ、つなぎの重みと活性化関数で入力を変えながら学習する。
生成AI・LLMの技術
-
ガードレール
Guardrail
生成AIの入出力を見張り、不適切な内容や機密の漏れを防ぐ仕組み。プロンプトのチェック・出力フィルタ・ポリシーで縛る。
-
RAG(検索拡張生成)
Retrieval-Augmented Generation
外部の知識やドキュメントを検索し、その結果をプロンプトに載せてLLMに答えさせる。でたらめを減らし、最新・社内の情報をのせるときに用いる。
-
Chain-of-Thought(CoT)
Chain-of-Thought Prompting
「 step by step で考えて」とプロンプトで促す。複雑な推論や計算で、答えの質が上がることがある。
-
トランスフォーマー
Transformer
Attention を核にしたモデル構造。長い文の前後の関係を並列に扱え、いまの LLM の多くがこの形を基盤としている。
-
ベンチマーク・リーダーボード
Benchmark / Leaderboard
モデル同士を公平に比べるための標準タスクやデータセット。GLUE・MMLU など。リーダーボードはその結果をランキングにしたもの。
-
ファインチューニング
Fine-tuning
すでに学んだモデルを、やりたいタスクや分野のデータでもう少し学ばせること。Instruction Tuning は「指示に従う」ように仕込む方法。
-
ハルシネーション
Hallucination
事実と違う内容を、さも正しそうに出力してしまうこと。正確さが大事な場面では RAG やガードレール・人の確認で抑える。
-
埋め込み(Embedding)
Embedding
テキストや画像を「意味が近いと数値も近い」ベクトルに変換したもの。検索や類似度・RAG のインデックスに用いられる。
-
プロンプト / プロンプトエンジニアリング
Prompt / Prompt Engineering
LLMに渡す「指示や入力の文章」がプロンプト。それを目的に合わせて組み立て・磨くのがプロンプトエンジニアリング。実務ではここが効く。
-
LLM(大規模言語モデル)
Large Language Model
大量のテキストで鍛えた、大きな言語モデル。文を書く・要約・翻訳・質問に答えるなどができる。GPT・Claude・Gemini などを挙げられる。
-
スケーリング則
Scaling Laws
モデル・データ・計算を増やすと、性能がだいたい予測どおりに伸びる、という経験則。LLM を大きくする根拠のひとつ。
-
Attention(アテンション)
Attention Mechanism
「いまどこを見るか」を重みで決める仕組み。Query・Key・Value の三つ組で表し、関係ありそうな情報を選んで使う。Transformer の心臓部。
-
拡散モデル
Diffusion Model
ノイズを少しずつ取りのぞいていって画像などを仕上げるモデル。画像生成の主役で、Stable Diffusion などが代表的。
-
RLHF・アライメント
Reinforcement Learning from Human Feedback / Alignment
人の好みを「報酬」として強化学習に組み込み、出力を人の意図に近づける。アライメント=AIの振る舞いを安全で役に立つようにそろえる取り組み。
-
プロンプトインジェクション
Prompt Injection
プロンプトに悪意の指示を紛れ込ませ、挙動を変えたり情報を抜き出したりする攻撃。入力の検証やガードレールで防ぐ。
-
Zero-shot・Few-shot
Zero-shot / Few-shot Learning
Zero-shot=例を出さず指示だけでやらせること。Few-shot=プロンプトに少数の例を入れてやり方を合わせること。LLMの in-context learning とセットで語られる。
-
基盤モデル
Foundation Model
大きなデータで事前学習した、いろんなタスクに流用できるモデル。ファインチューニングやプロンプトで用途を広げる。LLMやマルチモーダルモデルがここに入る。
-
トークン・トークナイザー
Token / Tokenizer
テキストを「モデルが食べる単位」に切ったものがトークン。その切り分けをするのがトークナイザー。コンテキスト長もトークン数で数える。
-
Instruction Tuning
Instruction Tuning
「指示」と「そのときの正しい応答」のペアで追加学習し、指示に従うようにする。チャット型 LLM の基盤のひとつ。
-
GPT・BERT
Generative Pre-trained Transformer / BERT
GPT=次に来るトークンを当てる「デコーダ型」で、ChatGPT の基盤。BERT=文脈を前後両方から見る「エンコーダ型」で、分類や質問応答に用いられる。
-
サンプリング・温度・Top-p
Sampling / Temperature / Top-p
次のトークンを確率に従ってどう選ぶか。温度=ランダムさの強さ、Top-p=候補を確率でしぼる。出力のバラつきや固さの調整に用いる。
-
In-Context Learning
In-Context Learning
プロンプトにのせた例や情報だけで、パラメータをいじらずにタスクを解く LLM の性質。Few-shot とセットで使う。
自然言語・画像・音声処理
-
OCR(光学文字認識)
Optical Character Recognition
画像や PDF から文字を取り出す技術。書類のデジタル化・帳票読み・LLM に渡す前処理などで使う。
-
音声認識・音声合成
Speech Recognition / Speech Synthesis
音声認識(ASR)=音声を文字に。音声合成(TTS)=文字から音声を。どちらも深層学習で精度が一気に上がった。
-
自然言語処理(NLP)
Natural Language Processing
ことばをコンピュータで扱う技術の総称。翻訳・要約・感情分析・質問応答・LLM などがここに入る。
-
Text-to-Image
Text-to-Image
文章の説明から画像をつくり出すタスク。DALL・E や Stable Diffusion・Midjourney などが代表的。
-
形態素解析
Morphological Analysis
文を形態素(意味の最小単位)にバラす処理。日本語の分かち書きや品詞付けの前提となる。MeCab などで行う。
-
画像認識・物体検出・セグメンテーション
Image Recognition / Object Detection / Segmentation
画像認識=写っているものを種類分け。物体検出=どこに何があるかを出す。セグメンテーション=ピクセル単位で領域を分ける。CNN や Vision Transformer で実現される。
-
word2vec・分散表現
Word2Vec / Distributed Representation
単語をベクトルに変換する方法。意味が近い単語ほどベクトルも近くなる。one-hot ではなく連続ベクトルで表す考え方。
エージェント・連携
-
ツール呼び出し・関数呼び出し
Tool Use / Function Calling
LLM が外の API や関数を呼び出す仕組み。検索・計算・DB 操作などをエージェントが自分でやるときに用いる。
-
コンテキスト・コンテキスト長
Context / Context Length
モデルが答えを出すときに見る情報(会話の流れ・検索結果・システムの指示など)。コンテキスト長=いっぺんに渡せるトークン数の上限。
-
AIエージェント
AI Agent
目標に向かって自分で判断し、ツールや検索・コード実行を組み合わせて仕事を進める AI。LLM を頭脳に、外の世界とやり取りしながら動く。
-
ReAct
Reasoning + Acting
「考える」と「動く」を交互に回すエージェントの型。考え→行動→結果を見る、のループで課題を少しずつ解いていく。
-
API
Application Programming Interface
プログラム同士が情報や機能を渡し合うための窓口。LLM や外部サービスをアプリに入れるときも API でつなぐ。
-
MCP(Model Context Protocol)
Model Context Protocol
AI が外部のツール・データ・API と安全につながるための約束ごと。ファイル操作や API 統合の基盤として用いられる。
AI倫理・ガバナンス・社会実装
-
トレーサビリティ・再現性
Traceability / Reproducibility
データの出どころやモデルの学習条件をたどれること=トレーサビリティ。同じ条件で同じ結果が出ること=再現性。監査や品質管理で重要。
-
敵対的攻撃(アドバーサリアル攻撃)
Adversarial Attack
わずかなノイズを意図的に加えて、モデルを誤判定させる攻撃。画像認識や生成 AI のセキュリティ・信頼性の文脈で話題になる。
-
プライバシー・個人情報保護
Privacy / Personal Data Protection
AI はデータをたくさん使うため、個人情報保護法や GDPR にのっとった扱いが求められる。最初からプライバシーを組み込む考え方も重要。
-
CRISP-DM
CRISP-DM
データ・AI プロジェクトの進め方を整理した枠組み。ビジネス理解→データ理解→モデリング→評価→導入、といった段階で語られる。
-
バイアス・公平性
Bias / Fairness
データの偏りがそのまま出力に出て、特定の属性で不当な結果になってしまうこと。公平性をどう保つかは AI 倫理の大きなテーマ。
-
透明性レポート
Transparency Report
学習データ・できること・制限・利用状況などを外に開示する報告。説明可能性やガバナンスの一環として求められることがある。
-
AI倫理・AIガバナンス
AI Ethics / AI Governance
AI をどうつくり・使うかの価値の軸(公平・透明・説明できる・プライバシーなど)と、組織でどう統制するか。国内外で指針や規制が話題になっている。
-
ディープフェイク
Deepfake
深層学習で人の顔や声を合成・差し替えたコンテンツ。悪用の防止や検知技術が、社会課題として議論されている。
-
MLOps
MLOps
モデルの開発〜デプロイ〜監視〜再学習までを、ひと続きで回しやすくする。CI/CD や再現性・監視・追跡がポイント。
-
説明可能性(XAI)
Explainable AI
AI がなぜそう判断したかを、人が追えるようにする取り組み。深層学習は中身が見えにくいので、Grad-CAM や SHAP などの手法で説明を補う。
-
生成AIと著作権
Copyright & Generative AI
生成 AI の学習に使うデータの利用や、AI がつくったものの権利を誰が持つか、といった論点。各国で指針や法整備が進んでいる。
-
リスクベースアプローチ
Risk-based Approach
用途ごとのリスクの高さに応じて、規制や対策の強さを変えようという考え方。EU の AI 法などで取り入れられている。
事業・インフラ
-
アノテーション
Annotation
学習データに「正解」のラベルや境界などを付ける作業。画像のどこに何があるか・音声の文字起こし・テキストのタグ付けなど。教師あり学習には欠かせない。
-
クラウド・GPU
Cloud / GPU
クラウド=ネット越しにリソースを使う形。GPU=深層学習の学習・推論を速めるハード。LLM API や学習環境をクラウドで提供するサービスも増えている。
-
Project "CRAai"
—
ファイルの処理を軸にタスクを回し、MCP などで API をまとめて事業を動かす自律システム。CRAai がつくる中核プロジェクトの名前。
-
データサイエンティスト
Data Scientist
データの集め方・分析・モデルづくり・ビジネスへの落とし込みまでを担う役割。統計や機械学習と現場の知識を組み合わせて価値を出す。
-
IoT
Internet of Things
センサーや機器をネットでつなぎ、データを集めたり制御したりする仕組み。AI と組み合わせて予測保全やスマート工場などに用いられる。
-
自律運営
Autonomous Operation
人がつきっきりでいなくても、AI やシステムが判断し実行し、価値を出し続ける運営のしかた。CRAai のビジョンの核。
-
RPA
Robotic Process Automation
決まった業務をソフトのロボットで自動化する技術。AI をのせた IPA(知的プロセスオートメーション)へ広がりつつある。
-
PoC(概念実証)
Proof of Concept
技術やアイデアが本当にできるかを、小さい規模で試すこと。AI 導入では、データ・精度・業務との相性を見る段階で用いる。