澎湖县网站建设_网站建设公司_页面加载速度_seo优化
2026/1/12 20:36:24 网站建设 项目流程

人工智能学习-AI入试相关题目练习-第一次

  • 1-前言
  • 2-AI入试相关题目练习
  • 3-具体自己做题
  • 4-练习(日语版本)解析
  • 确认基准
    • (1)A*アルゴリズム(経路探索)
      • 题目本质
      • 【ア:a(E)】
      • 【イ:e(7)】
      • 【ウ:h(異なる)】
    • (2)利得行列(ゲーム理論)
      • 表在干嘛?
      • 【エ:d(a1, b2)】(α=3)
      • 【オ:b(4 < α)】
      • 【カ:h(a2, b2)】
    • (3)粒子フィルタ(自己位置推定)
      • 【キ:b(ベイズフィルタ)】
      • 【ク:e(モンテカルロ近似)】
      • 【ケ:d(SIR)】
    • (4)教師あり学習(分類・回帰・最適化)
      • 【コ:g(ランダムフォレスト)】
      • 【サ:c(一般線形モデル)】
      • 【シ:a(最急降下法)】
    • (5)形態素解析(NLP)
      • 【ス:h(単語ラティス)】
      • 【セ:b(最小化)】
      • 【ソ:d(n-gramモデル)】
  • 一句话总总结(考试视角)
  • 5-总结

1-前言

为了应对大学院考试,我们来学习相关人工智能相关知识,并做各种练习。

通过学习,也算是做笔记,让自己更理解些。

2-AI入试相关题目练习


3-具体自己做题

4-练习(日语版本)解析

确认基准

(1) ア:a イ:e ウ:h (2) エ:d オ:b カ:h (3) キ:b ク:e ケ:d (4) コ:g サ:c シ:a (5) ス:h セ:b ソ:d

下面开始按题号重构出题逻辑


(1)A*アルゴリズム(経路探索)

题目本质

考你是否真正理解 A的“搜索顺序 + 最优性 + 与他算法的关系”*


【ア:a(E)】

在问什么?

第 3 个被确定为「訪問済み(探索終了)」的节点是谁?

关键点:

  • 「訪問済み(探索終了)」≠ 看一眼
  • 指的是:
    👉从 Open list 中取出、并确定其 f 值最优的节点

为什么是 E?

  • A* 按f = g + h排序
  • 在 S 之后,第 2、3 个被“确定”的节点中
    👉E 的 f 值先于 B、C 成为最优

👉考的是 A的展开顺序理解*


【イ:e(7)】

在问什么?

S → G 的最终最小总代价是多少?

注意:

  • 不是看直线
  • 不是贪心
  • A完成搜索后得到的最短路径总代价*

👉 所以答案是7


【ウ:h(異なる)】

在问什么?

A* 找到的路径,是否与
「最良優先探索(Best-first search)」相同?

关键陷阱:

  • 很多人以为:

    A* = Dijkstra = 最良優先

  • 但本题中的「最良優先探索」
    👉是按“評価値 h 或局部最优”来选

因此:

  • A* 使用g+h
  • 最良優先使用单一评价
  • 路径不保证一致

👉 所以是「異なる」


(2)利得行列(ゲーム理論)

表在干嘛?

  • 左数字:Player A
  • 右数字:Player B

【エ:d(a1, b2)】(α=3)

在问什么?

当 α=3 时,
不管对方怎么选,各自都会选哪一个行动?

👉 这句话 =支配戦略

为什么是 (a1, b2)?

  • α=3 时:

    • A:a1 在所有情况下不劣
    • B:b2 在所有情况下不劣

👉双方都有支配戦略


【オ:b(4 < α)】

在问什么?

在什么条件下:

  • 不存在支配戦略均衡
  • 存在纳ッシュ均衡

逻辑:

  • 当 α > 4:

    • A、B 都不再有“无脑最优”
    • 但仍存在互为最优反应的组合

👉 这是教科书级结论


【カ:h(a2, b2)】

在问什么?

在该条件下的纳ッシュ均衡是什么?

原因:

  • 在 α > 4 时:

    • A 对 b2 的 best response 是 a2
    • B 对 a2 的 best response 是 b2

👉 所以均衡点是(a2, b2)


(3)粒子フィルタ(自己位置推定)

这是一道“定义三连”


【キ:b(ベイズフィルタ)】

在问什么?

粒子滤波属于哪一类方法?

👉 粒子滤波 =
非线性・非高斯条件下的贝叶斯状态推定


【ク:e(モンテカルロ近似)】

在问什么?

用有限个粒子近似概率分布,这叫什么?

👉 = Monte Carlo approximation


【ケ:d(SIR)】

在问什么?

抽样 → 加权 → 重采样
这套机制叫什么?

👉 标准名称:SIR


(4)教師あり学習(分類・回帰・最適化)


【コ:g(ランダムフォレスト)】

在问什么?

分类问题的代表性方法是?

👉 Random Forest 是典型分类器


【サ:c(一般線形モデル)】

在问什么?

回归问题的代表性方法是?

👉 线性回归 = 一般線形モデル


【シ:a(最急降下法)】

在问什么?

通过误差函数
对参数求偏导
用梯度更新参数
—— 这叫什么?

👉Gradient Descent


(5)形態素解析(NLP)


【ス:h(単語ラティス)】

在问什么?

单词候选作为节点
连接关系作为边
这个图叫什么?

👉 不是构文树
👉 是单语ラティス


【セ:b(最小化)】

在问什么?

概率越低 → 成本越高
应该找什么路径?

👉 总成本最小化


【ソ:d(n-gramモデル)】

在问什么?

用前 n−1 个词预测下一个词的模型?

👉 n-gram 定义题


一句话总总结(考试视角)

这不是计算题,而是:
“你是否系统理解 AI 各核心分支的基本思想”

题号在确认你是否理解
(1)A* 的搜索逻辑
(2)支配戦略 vs ナッシュ
(3)贝叶斯推定思想
(4)监督学习的结构
(5)NLP 中的图搜索

5-总结

知识一点点记录吧,最后应对考试,打下基础

需要专业的网站建设服务?

联系我们获取免费的网站建设咨询和方案报价,让我们帮助您实现业务目标

立即咨询