En el mar no hay más que agua, y por ello para
posicionarse solo podemos basarnos en la carta marina que viene
expresada en coordenadas de Latitud y Longitud.
La milla marina es la unidad de distancia más lógica
ya que es justo la medida del arco correspondiente a un minuto de
grado en la tierra. Sabemos que un grado tiene 60 minutos, y por
tanto cada cambio de grado en la latitud equivale a moverse 60
millas.
Por su parte el Kilómetro se definió hace más de un
siglo como la diezmilava parte de un cuarto de perímetro de la
tierra. La relación entre ambas medidas queda fijada en 1 milla es
igual a 1.852 metros.
La milla terrestre es en la que vienen marcados los
cuentakilómetros de los coches americanos (mph; millas por hora) y
no tiene nada que ver con la milla marina. Se trata de una medida
caprichosa y estúpida, equivalente a 1.609 metros. La milla terrestre
la dividen en 1.760 yardas o también en 5.280 pies, que es como miden
las profundidades los instrumentos anglosajones (recuerden las
películas de submarinos) ¿Por qué? Pues por eso, porque son así…
Pero volvamos a nuestra querida milla marina. El
primero en sugerir su utilización fue un abad de Lyon en Francia
allá por 1.670. El Padre Gabriel Mouton pensaba que todo el mundo
acabaría tomando esta unidad de distancia como medida universal por
todos los países del mundo dado su origen lógico y útil. Se equivocó
aunque solo parcialmente pues todos los navegantes del mundo la
utilizan, y de ella se sacaron los nudos que no son más que millas
náuticas por hora.
En los
barcos de entonces, se llevaba un cabo en cuyo extremo había una
tabla que al tirar al agua se quedaba frenada y empezaba a tirar de
la cuerda, la cual tenía cada cierta distancia un nudo (cada 7,72
metros). Para saber la velocidad del barco, se tiraba la plancha al
agua, y se cronometraba durante 15 segundos la cantidad de nudos que
se iban a agua. El número de nudo que se iban a agua era justamente
la velocidad del barco.
|