曼哈顿距离是数学、数据分析、机器学习和人工智能中非常常见的一个术语。它用来描述两个点之间沿着各个坐标轴方向分别移动时,总共需要走多远。换句话说,曼哈顿距离是在回答:如果不能走斜线,只能沿着横向和纵向一段一段地走,从一个点到另一个点总共要走多少路。
如果说欧氏距离回答的是“两个点之间直线有多长”,那么曼哈顿距离回答的就是“沿坐标轴拐弯前进时,总共走了多长”。因此,曼哈顿距离常用于距离计算、聚类分析、K 近邻算法、特征空间度量和机器学习建模,在人工智能与数据分析中具有重要基础意义。
一、基本概念:什么是曼哈顿距离
曼哈顿距离(Manhattan Distance)是指两个点在各个坐标维度上的差值绝对值之和。
若在二维平面中,有两个点:
那么它们之间的曼哈顿距离可写为:
其中:
• |x₁ - x₂| 表示两个点在 x 方向上的距离差
• |y₁ - y₂| 表示两个点在 y 方向上的距离差
• 两者相加后,得到总的曼哈顿距离
如果推广到 n 维空间,设两个点分别为:
则曼哈顿距离可写为:
这个公式的意思是:先看每一维上相差多少,再把这些差值的绝对值加起来,得到总距离。
从通俗角度看,曼哈顿距离可以理解为:两个点在每一个方向上分别差多少,把这些“横着差多少、竖着差多少、再加上其他维度差多少”全部累加起来。
二、为什么叫“曼哈顿距离”
“曼哈顿距离”这个名字,来自美国纽约曼哈顿地区那种典型的棋盘式街区结构。
在那里,街道通常是横平竖直分布的。
如果你要从一个街区走到另一个街区,往往不能直接穿过楼房走直线,而只能:先沿一条街道向东或向西走,再沿另一条街道向北或向南走。
这时,你真正走过的路程,并不是两点之间的直线距离,而是沿街道拐弯前进的总路程。这正是曼哈顿距离的直观来源。
例如,在二维平面中:
• 从点 (1, 2) 到点 (4, 6)
• 在 x 方向上相差 |1 - 4| = 3
• 在 y 方向上相差 |2 - 6| = 4
所以曼哈顿距离为:
从通俗角度看,曼哈顿距离像是在问:如果只能走“横的”和“竖的”,而不能直接走斜线,那么总共要走多少步。
这也是它和欧氏距离最根本的区别之一。
三、曼哈顿距离的直观理解
曼哈顿距离最核心的直觉,是“分方向分别计算,再全部相加”。
例如,在二维空间中,从点 A 到点 B 时:
• 先看水平方向差多少
• 再看垂直方向差多少
• 最后把两部分加起来
如果在三维空间中,还会多一个方向:
• x 方向差多少
• y 方向差多少
• z 方向差多少
• 最后全部加起来
因此,曼哈顿距离不关心“最短直线”有多长,而关心:沿每个维度分别移动时,累积位移总共有多少。
从通俗角度看,曼哈顿距离就像是在做“总步数统计”:
• 横着走几步
• 竖着走几步
• 其他维度再走几步
• 全部加起来就是总路程
这使它特别适合那些“移动方式天然分方向进行”的场景。
四、曼哈顿距离的重要性与常见应用场景
1、曼哈顿距离的重要性
曼哈顿距离之所以重要,是因为并不是所有问题中的“距离”都应该用直线长度来衡量。
首先,很多问题中的变化本来就是按维度分别发生的。
例如在特征空间里,两个样本在每个特征上分别差多少,有时比“整体直线差多少”更有解释性。曼哈顿距离正好把每一维差异直接累加起来。
其次,曼哈顿距离对单个大差异的处理方式与欧氏距离不同。
它只做绝对值后求和,不做平方,因此不会像欧氏距离那样对较大的单维偏差进行明显放大。这使它在某些任务中更稳定,也更有可解释性。
再次,曼哈顿距离是很多机器学习方法中的经典距离度量之一。
在 K 近邻、聚类分析、相似性比较等任务中,曼哈顿距离经常作为欧氏距离之外的重要选择。
可以概括地说:
• 欧氏距离强调“直线最短”
• 曼哈顿距离强调“分方向累积总差异”
2、常见应用场景
(1)在 K 近邻算法中,曼哈顿距离常作为邻近度量方式之一
不同的距离定义会影响“谁是最近邻”,因此曼哈顿距离在 KNN 中很常见。
(2)在聚类分析中,曼哈顿距离常用于衡量样本间差异
尤其是在某些高维数据或稀疏数据中,它可能比欧氏距离更合适。
(3)在城市路网、网格路径问题中,曼哈顿距离具有天然直观意义
因为路径本来就常常受限于横纵方向移动。
(4)在高维特征空间中,曼哈顿距离常用于衡量逐维差异总量
它能直接表达“每一维分别差多少,再全部加总”的思想。
(5)在某些鲁棒建模问题中,曼哈顿距离相关思想也很常见
因为它与绝对值误差、L1 范数等概念有密切联系。
五、曼哈顿距离的数学本质:L1 距离
从更规范的数学角度看,曼哈顿距离本质上就是 L1 距离(L1 Distance),也和 L1 范数(L1 Norm) 密切相关。
若两个向量之差为:
那么它们之间的曼哈顿距离可以写成:
其中,L1 范数定义为:
也就是说,曼哈顿距离本质上就是:先求两个点在各维上的差,再对这些差值取绝对值并求和。
因此,曼哈顿距离并不是一个完全独立的新概念,而是 L1 范数在“两个点差异度量”中的具体体现。
从通俗角度看:
• L1 范数是在量一个向量“各分量绝对值总和有多大”
• 曼哈顿距离是在量两个点“各维差值绝对值总和有多大”
六、曼哈顿距离与欧氏距离的区别
曼哈顿距离最容易与欧氏距离混淆,因此必须单独区分。
1、欧氏距离看的是直线长度
欧氏距离的公式为:
它强调的是两点之间的“直线最短距离”。
2、曼哈顿距离看的是各维差值绝对值之和
曼哈顿距离的公式为:
它强调的是“沿各维分别移动后的总距离”。
3、二者的直观区别
以二维点 (0,0) 和 (3,4) 为例:
欧氏距离是:
曼哈顿距离是:
可以看到:
• 欧氏距离更短,因为它允许走直线
• 曼哈顿距离更长,因为它只能分方向移动
从通俗角度看:
• 欧氏距离像“空中直飞”
• 曼哈顿距离像“沿街道拐弯行走”
七、曼哈顿距离的特点
曼哈顿距离有几个非常鲜明的特点。
1、逐维差异可直接解释
它把每一维上的偏差直接累加起来,因此很容易看出:
• 某一维差多少
• 总共差多少
2、不对大偏差做平方放大
这意味着,若某一维差得特别大,曼哈顿距离虽然会增大,但不会像欧氏距离那样因为平方而放大得更明显。
3、在高维空间中有时更稳定
在一些高维数据问题中,欧氏距离可能受到某些大分量强烈影响,而曼哈顿距离则相对更强调“整体逐维差异总量”。
4、与绝对值误差思想一致
曼哈顿距离和平均绝对误差(MAE)、L1 范数、L1 正则化等概念在思想上是相通的,都强调“绝对值总和”。
从通俗角度看,曼哈顿距离更像是一种:
把每个方向上的偏差都公平记账,再做总和统计的距离。
八、使用曼哈顿距离时需要注意的问题
1、它不是所有场景下都优于欧氏距离
到底选哪种距离,取决于任务背景、特征含义和数据结构,而不是“谁绝对更好”。
2、特征尺度会影响曼哈顿距离
如果某一维数值范围远大于其他维,那么这一维会明显主导距离结果。
因此,在实际应用中,通常仍需要标准化或归一化。
3、曼哈顿距离强调逐维累积差异
如果任务更符合“直线接近”的几何直觉,欧氏距离可能更自然;
如果任务更符合“分维差异累积”的思路,曼哈顿距离可能更合适。
4、在高维问题中,距离选择尤其重要
不同距离度量在高维空间中的表现差异会更加明显,因此需要结合实际实验判断。
5、它与 L1 范数密切相关
理解了 L1 范数,就更容易理解曼哈顿距离的数学本质。
九、Python 示例
下面给出两个简单示例,用来说明曼哈顿距离的基本计算方式。
示例 1:手动计算二维点的曼哈顿距离
# 两个二维点x1, y1 = 1, 2x2, y2 = 4, 6 # 计算曼哈顿距离distance = abs(x1 - x2) + abs(y1 - y2) print("点 A =", (x1, y1))print("点 B =", (x2, y2))print("曼哈顿距离 =", distance)这个例子中:x 方向相差 3,y 方向相差 4,总距离为 7。
它直接体现了“横着走几步,加上竖着走几步”的思想。
示例 2:使用 NumPy 计算高维向量的曼哈顿距离
import numpy as np # 两个向量x = np.array([1, 3, 5, 2])y = np.array([4, 1, 7, 6]) # 计算曼哈顿距离distance = np.sum(np.abs(x - y)) print("向量 x =", x)print("向量 y =", y)print("曼哈顿距离 =", distance)这个例子展示了高维情形下的曼哈顿距离计算:先求各维差值,再取绝对值,最后全部相加。
📘 小结
曼哈顿距离是一种通过“各维差值绝对值求和”来衡量两个点之间差异的距离度量。它强调的不是两点之间的直线最短距离,而是沿各个坐标方向分别移动时的总路程。在 K 近邻、聚类分析、特征空间度量和高维数据处理中,曼哈顿距离都非常常见。对初学者而言,可以把它理解为:欧氏距离像两点之间直线飞过去,而曼哈顿距离像沿街道一段一段拐弯走过去。
“点赞有美意,赞赏是鼓励”