理解度チェック:生成AIの基本を理解しよう
クイズの説明
Step 1で学んだ内容の理解度をチェックします。
- 全8問
- 合格ライン: 80%(7問正解)
- 不合格の場合は復習してから再挑戦してください
問題
Q1. LLM(大規模言語モデル)の基本的な動作原理として最も正しいものはどれですか?
- A) データベースから正確な情報を検索して回答する
- B) 入力に対して次に来る可能性が最も高いトークンを予測して生成する
- C) プログラミングされたルールに従って回答を組み立てる
- D) インターネットをリアルタイムで検索して回答する
正解: B
LLMは「次のトークンを予測する」を繰り返すことで文章を生成します。データベース検索やルールベースの処理とは本質的に異なります。また、基本的にはリアルタイムのインターネット検索は行いません(一部サービスでは追加機能として提供)。
</details>Q2. ハルシネーション(幻覚)について正しい説明はどれですか?
- A) AIがユーザーを騙すために意図的に嘘をつく現象
- B) AIが事実と異なる情報をもっともらしく生成してしまう現象
- C) AIの処理速度が低下して正しく応答できない現象
- D) AIが入力を正しく理解できずに無関係な回答をする現象
正解: B
ハルシネーションとは、AIが事実と異なる情報を自信たっぷりに、もっともらしく出力してしまう現象です。AIには「嘘をつく意図」はなく、確率的に「ありそう」な出力を生成しているだけです。存在しないAPIの説明や、架空のURLの生成などが典型例です。
</details>Q3. Temperature(温度)パラメータの説明として正しいものはどれですか?
- A) AIの処理速度を制御する。高いほど速い
- B) AIの出力のランダム性を制御する。低いほど決定的な出力になる
- C) AIが参照するデータの量を制御する。高いほど多くのデータを参照
- D) AIの回答の長さを制御する。高いほど長い回答を 生成する
正解: B
Temperatureは出力のランダム性を制御します。Temperature=0では最も確率の高いトークンが常に選ばれ、同じ入力には同じ出力が返ります。値が高くなるほどランダム性が増し、多様な出力が生成されます。コード生成には低い値(0〜0.3)、創造的なタスクには高い値(0.7〜1.0)が推奨されます。
</details>Q4. コード生成タスクにおいてAIが最も得意とするものはどれですか?
- A) 複雑なビジネスロジックの設計と実装
- B) セキュリティが保証された認証システムの構築
- C) 定型的なCRUDコードやボイラープレートの生成
- D) プロジェクト全体のアーキテクチャ設計
正解: C
AIは定型的なパターン(CRUD操作、ボイラープレートコード等)の生成が最も得意です。大量の学習データから共通パターンを学んでいるためです。一方、複雑なビジネスロジック、セキュリティ保証、全体アーキテクチャ設計は、コンテキストやトレードオフの判断が必要で、人間の判断が不可欠です。
</details>Q5. AIサービスに入力してはいけない情報として最も不適切なものはどれですか?
- A) 公開されているオープンソースのコード
- B) 自社のAPIキーとデータベースのパスワード
- C) TypeScriptの一般的な文法についての質問
- D) 公式ドキュメントに記載されているエラーメッセージ
正解: B
APIキーやパスワードなどの認証情報は、絶対にAIサービスに入力してはいけません。これらの情報はサーバーに送信され、万が一漏洩した場合、不正アクセスにつながります。公開されているオープンソースコード、一般的な文法質問、公式ドキュメントの情報は入力しても問題ありません。
</details>Q6. ChatGPTとClaudeの違いについて正しい説明はどれですか?
- A) ChatGPTはコード生成ができるが、Claudeはテキスト生成のみ
- B) Claudeは長文処理に強く、ChatGPTはWeb検索機能が充実している
- C) ChatGPTは無料だが、Claudeは完全有料
- D) ClaudeはGitHub連携ができるが、ChatGPTはできない
正解: B
Claudeは200Kトークンの長いコンテキストウィンドウを持ち、大量のコード分析に強みがあります。ChatGPTはWeb検索(Browsing)機能やプラグインエコシステムが充実しています。両方ともコード生成ができ、両方とも無料枠があります。
</details>Q7. AI依存のリスクに対する適切な対策はどれですか?
- A) AIの回答が正しいか確認する時間がもったいないので、そのまま採用する
- B) AIに頼らず全て自分で書くことで、AIの使用を最小限にする
- C) まず自分で考え、AIを支援ツールとして活用し、出力は必ず検証する
- D) 全てのコードをAIに生成させ、テストだけ自分で書く
正解: C
健全なAI活用とは、まず自分で考え、AIを支援ツールとして活用し、出力は必ず検証することです。AIの回答を無検証で採用するのは危険ですし、AIを全く使わないのは非効率です。「考える力を維持しつつ、AIで効率化する」バランスが重要です。
</details>Q8. GitHub Copilotの最大の特徴として正しいものはどれですか?
- A) Webブラウザで使用する対話型AIチャットサービス
- B) コードエディタに統合され、コーディング中にリアルタイムで補完を提供する
- C) 画像からコードを生成する画像認識AI
- D) プロジェクト管理を自動化するタスク管理ツール
正解: B
GitHub Copilotは、VS CodeやJetBrains等のコードエディタに直接統合され、コーディング中にリアルタイムでコード補完を提供するAIサービスです。ブラウザベースのチャットではなく、エディタ内での開発体験に最適化されている点が最大の特徴です。
</details>結果
7問以上正解の場合
合格です。おめでとうございます。
Step 1「生成AIの基本を理解しよう」を完了しました。 次は Step 2「プロンプトの技術を磨こう」に進みましょう。
6問以下の場合
もう少し復習しましょう。
間違えた問題の内容を、該当するセクションで復習してください:
| 問題 | 復習セクション |
|---|---|
| Q1, Q3 | step1_2 LLMの仕組み |
| Q4, Q6 | step1_3 主要なAIサービスの比較 / step1_4 得意・不得意 |
| Q2 | step1_2 ハルシネーション |
| Q5, Q7 | step1_5 倫理とリスク管理 |
| Q8 | step1_3 GitHub Copilotの特徴 |
次のステップへ
Step 2: プロンプトの技術を磨こう(4時間)
生成AIの基本を理解したところで、次はAIを効果的に使うための核心技術「プロンプトエンジニアリング」を学びます。同じAIでも、聞き方次第で回答の質が劇的に変わります。
推定所要時間: 15分