Suite

Convertir l'adresse en coordonnées à l'aide d'OpenLayers 3 ?

Convertir l'adresse en coordonnées à l'aide d'OpenLayers 3 ?


Est-il possible de convertir l'adresse en coordonnées en utilisant OpenLayers 3 ?

Je peux y faire un mauvais chemin en prenant l'adresse et en la cherchant dans leplanet_osm_pointstable et obtenezosm_idet après cela, recherchez leosm_iddansplanet_osm_nodetableau. Mais c'est une mauvaise façon. je suis presque sûr queOpenLyers3je dois le faire, mais je ne trouve rien sur le Web.


Puisque vous mentionnez spécifiquement OpenLayers 3, cela peut ne pas être un doublon. Une recherche rapide sur Google trouve une page de documentation de l'API OpenLayers 3. Dans ga.Map se trouve une entrée pour le géocode, qui indique quegéocoder (texte)sera "Geocode using api.geo.admin.ch", le texte étant une chaîne bien sûr.


Les données topographiques de référence 1:250 000 comprennent :

  • Planimétrie
  • Contrôle de l'enquête
  • 1:20 000 & 1:50 000 grilles de référence
  • Contours
  • Zones boisées
  • Donnée de référence

Les limites des feuilles suivent celles des cartes fédérales et peuvent être des cartes jointes ou étendues. Il y a eu une transformation de décalage non standard de NAD27 à NAD83.

Contrairement aux produits de gestion de l'information sur les ressources du terrain (TRIM), il n'y a pas eu de compilation directe de données lors de la création de cette carte de base.

Formats de fichier

Les fichiers cartographiques numériques sont destinés à être utilisés dans les systèmes d'information géographique (SIG). Les formats pris en charge sont :

  • MicroStation
  • ArcInfo
  • Fichier de formes ESRI (Albers ou UTM)
  • DGN (Albers ou UTM)
  • MOEP (UTM uniquement)
  • SAIF (UTM uniquement)

Le produit comprend la carte de base numérique, le modèle d'élévation numérique (DEM) ou les deux.

Comment acquérir

Les données cartographiques topographiques NTS 1:250 000 peuvent être commandées dans la boutique en ligne Base Map ou ouvertes dans Google Earth :

Les ensembles de données cartographiques de base NTS 1:250 000 peuvent être téléchargés à partir du B.C. Catalogue de données :

Prix

Carte de base numérique 1:250K, série NTS (carte de base et DEM)

Carte de base numérique 1:250K, série NTS (carte de base uniquement)

Carte de base numérique 1:250K, série NTS (DEM uniquement)

Délais de livraison

Le produit sera disponible au téléchargement dans le format demandé dans les minutes suivant la commande de Base Map Online Store. Vous recevrez un email avec un lien FTP. La commande sera purgée du serveur FTP après sept (7) jours.


Le moyen économique de géocoder des adresses dans Excel - partie 3, géocodage de données en masse avec Nominatim et d'autres outils de géocodage

La 3 e partie de ce vaste article sur le géocodage est prévue pour une discussion sur un autre outil de géocodage gratuit pour MS Excel, à savoir le géocodage OpenStreetMap Nominatim et d'autres outils restants, qui pourraient mériter l'attention.

L'utilisation de ce petit outil est très simple, encore plus simple que le géocodage de l'API Bing Maps, cependant il nécessite un peu de connaissances sur le VBA Excel.
La situation ressemble à l'outil de géocodage Bing Excel, qui apparaît séparément dans le fichier , prêt pour un travail rapide. Le fichier est disponible ici, ainsi que l'intégralité du tutoriel. Parce que tout y a été expliqué à peu près également dans le cas de Bing Geocoding, je vais directement à l'option, dans laquelle nous pouvons lancer cet outil dans notre propre classeur . Je voudrais juste souligner que le fichier comprend également le géocodage de l'API Google, qui se trouve en haut. Ce n'est pas gratuit contrairement à l'outil Nominatim en dessous (Photo 1), que nous pouvons utiliser.

Pic. 1 L'outil de géocodage pour Excel avec l'option API Google en haut et l'option Nominatim en dessous (marquée en rouge).

Contrairement à l'outil de géocodage Bing, le Nominatim n'est à mon avis pas assez confortable pour être utilisé en externe. Cependant, l'outil convient parfaitement à notre propre feuille de calcul, car il se limite essentiellement à une formule. Comme précédemment, la connaissance de VBA Excel est requise pour faire fonctionner cet outil. Je vais vous montrer brièvement comment y parvenir.
Tout d'abord, nous devons ouvrir le fichier Geocode et lancer la console VBA (Pic. 2), d'où vous entrerez dans le module avec des fonctions (Pic. 3).

Pic. 2 Ouverture de VBA Excel dans notre fichier Nominatim Geocode.

Pic. 3 Fonction VBA de géocodage Nominatim

Étant donné que le fichier Geocode est également conçu pour le géocodage dans Google, vous rencontrerez les fonctions de géocodage de l'API Google en haut. Déplacez simplement votre curseur vers le bas pour voir les fonctions de Nominatim.

La deuxième étape consiste à copier ce code dans notre classeur. Vous n'avez pas besoin de faire glisser ou d'exporter un module entier, comme indiqué dans la partie précédente de cet article. Vous pouvez simplement sélectionner la fonction Nominatim , marquée en rouge ci-dessus (Photo 3), et la copier dans votre propre classeur en créant un nouveau module pour elle. L'image ci-dessous (Photo 4) montre toutes ces étapes :

Pic. 4 Les étapes montrant la copie de la fonction VBA de géocodage de Nominatim dans notre propre feuille de calcul.

  1. Ou votre propre feuille de travail avec des exemples d'emplacement.
  2. Création (insertion) d'un nouveau module dans la console VBA.
  3. Le nouveau module (par défaut Module1) a été créé, vous pouvez le voir maintenant vide avec Option Explicite au sommet.
  4. Sélectionnez l'ensemble NominatimGéocode fonction de votre fichier Geocode et copiez-le.
  5. Collez ce code dans un module de votre classeur.

Maintenant, théoriquement, vous pouvez commencer à géocoder dans votre propre feuille de calcul. Théoriquement, mais en pratique, cela reste impossible à moins que votre code et votre bibliothèque VBA ne soient correctement préparés. La principale chose à faire ici est de charger la bibliothèque spécifiée afin d'éviter l'erreur “User-defined type notdefined”.
Dans votre console VBA Excel, vous devez sélectionner les “Tools” dans la barre d'outils principale et ensuite choisir les “References” tout en haut. Ensuite, vous devez trouver la bibliothèque Microsoft XML v3.0 et l'activer (Photo 5). Il sera chargé sous peu.

Pic. 5 Ajout de la bibliothèque XML v.3 à votre projet VBA dans Excel.

Vous pouvez également ajouter cette référence par programmation si vous maîtrisez mieux VBA Excel. C'est plus rapide car il vous suffit d'exécuter la macro au lieu de chercher dans la liste des bibliothèques.
L'exemple de la macro VBA pour attacher cette bibliothèque est ci-dessous :

Sous-bibliothèque XML3()
Avec ThisWorkbook.VBProject.References
Application.VBE.ActiveVBProject.References. _
AddFromFile “C:WINDOWSsystem32msxml3.dll” ‘ le fichier de la bibliothèque Microsoft XML v3.0
Terminer par
Fin du sous-marin

Si vous exécutez la macro XML3library suivante, votre référence sera ajoutée.

Ensuite, vous pouvez continuer à valider votre code. Ce n'est toujours pas le bon moment pour le géocodage, j'en ai peur, car vous pourriez obtenir une erreur indiquant que “La variable n'est pas définie” selon l'image ci-dessous (Pic. 6).

Pic. 6 L'erreur “Variable non définie” dans le code Excel VBA.

Cela signifie simplement qu'il y a un manque de Faible déclarations pour certaines variables. Nous devons définir une variable dans notre code :

Fonction NominatimGeocode (adresse en tant que chaîne) en tant que chaîne
Application.Caller.Font.ColorIndex = xlNone
Dim xDoc en tant que nouveau MSXML2.DOMDocument
Dim vbErr en tant que chaîne
xDoc.async = Faux
xDoc.Load (“https://nominatim.openstreetmap.org/search?format=xml&q=” + WorksheetFunction.EncodeURL(address))
Si xDoc.parseError.ErrorCode <> 0 Alors
Application.Caller.Font.ColorIndex = vbErr
NominatimGeocode = xDoc.parseError.Reason
Autre
xDoc.SetProperty “SelectionLanguage”, “XPath”
Dim Loc en tant qu'élément MSXML2.IXMLDOME
Définir Loc = xDoc.SelectSingleNode(“/searchresults/place”)
Si Loc n'est rien alors
Application.Caller.Font.ColorIndex = vbErr
NominatimGeocode = xDoc.XML
Autre
Application.Caller.Font.ColorIndex = vbOK
NominatimGeocode = Loc.getAttribute(“lat”) & “,” & Loc.getAttribute(“lon”)
Fin si
Fin si
Fonction de fin

La ligne rouge indique l'élément, que vous devez ajouter à votre code afin de l'exécuter correctement – définissez simplement la variable, qui semble manquer à l'étape initiale.

Ensuite, vous pouvez enfin utiliser la fonction de géocodage Nominatim. Dans votre barre de formule ou dans la cellule, vous pouvez taper le NominatimGéocode() et calculez l'emplacement comme vous le voyez ci-dessous (Photo 7). Depuis maintenant, l'outil de géocodage Nominatim est prêt à être utilisé dans votre propre classeur.

Pic. 7 La fonction Nominatim dans notre classeur Excel nous permettant de procéder au géocodage de localisation.

2. AUTRES OUTILS DE GÉOCODAGE EXCEL DONT L'ATTENTION

Outre les outils décrits par moi-même, il existe d'autres appareils utiles pour géocoder les adresses dans MS Excel. L'un d'eux est fourni par OpencageData, où vous pouvez enregistrer votre clé API et effectuer 2500 requêtes par jour. C'est très utile et beaucoup plus rapide que Nominatim. Le géocodage peut se faire aussi bien avec VBA Excel que via Google Sheets. Sous ces liens, vous pouvez en savoir plus sur la façon de le faire.

Pic. 8 Exemple de géocodage OpenCage dans Google Sheets.

J'aurais aimé pouvoir le présenter dans la 1 ère partie de cet article, entièrement dédiée au géocodage avec l'aide de Google Sheets’. Je ne l'ai pas fait, car nous arrivons ici avec une application externe, écrite par du code JavaScript et définie par une fonction personnalisée plutôt que par un plugin intégré. Visitez le site Web d'accueil et apprenez-en plus sur la façon de géocoder 2500 adresses par jour avec OpenCage.

Une autre façon de géocoder dans Excel est l'installation du complément Mapcite. Vous pouvez faire du géocodage gratuitement, mais l'inscription est obligatoire . Le montant de 5000 adresses par mois n'est pas trop grand du tout, mais c'est quand même quelque chose, quand vous êtes à court d'autres options. Une fois le plugin installé, vous pouvez le voir dans le ruban principal d'Excel (Pic 9).

Pic. 9 Les outils Mapcite dans le ruban Excel.

Un autre outil, où nous pouvons faire le géocodage rapidement est Maplarge.com. En joignant le fichier .csv avec notre adresse, nous pouvons obtenir les 100 premiers résultats gratuitement.

Pic. 10 Outil de géocodage Maplarge.com.

À la fin, je voudrais mentionner LocationIQ.com, où le géocodage est également possible et s'accompagne d'un joli code .json.

Dans ceux-ci, toutes les parties du gros article entièrement dédiée au géocodage gratuit dans Excel, j'ai montré tous les outils utiles, qui vous aident à le faire. Personnellement, je pense que le meilleur est l'outil de géocodage Bing Excel, que nous pouvons facilement intégrer à notre classeur et géocoder 10 000 adresses. La création du nouveau profil afin d'obtenir le nouveau code de l'API Bing Maps et de le saisir dans notre classeur ne sera pas du tout un problème. Si vous souhaitez n'avoir aucune limite avec le géocodage de votre adresse, alors Nominatim sera le meilleur, mais n'oubliez pas que cet outil est assez lent (1 requête par seconde), vous devrez donc attendre. Il est bon de considérer le géocodage OpenCage, qui vous donne 2500 enregistrements par jour.

C'est le géocodage, où les coordonnées sont obtenues à partir des adresses. Dans un avenir proche, j'aimerais trouver le meilleur et vous expliquer les appareils de géocodage inversés peu coûteux pour MS Excel, où à la base des coordonnées, la chaîne d'adresse sera fournie.


Esri : géocodage (inverse) avec l'API REST ArcGIS et le type de données EXASolution GEOMETRY

Une façon de gérer le géocodage consiste à utiliser un service SIG (système d'information géographique) comme ArcGIS (www.arcgis.com) d'Esri.

Le site Web suivant présente différents cas d'utilisation où un tel service peut être utile :
https://developers.arcgis.com

Dans ce didacticiel, nous aimerions vous montrer comment utiliser l'API REST ArcGIS de Python :
http://resources.arcgis.com/en/help/arcgis-rest-api

En pratique, vous pourriez être confronté aux défis suivants :

  • Connectez-vous à une API REST depuis un langage EXASolution UDF (Python, Java, R, Lua).
  • Si vous souhaitez bénéficier du type de données GEOMETRY d'EXASolution (par exemple pour exécuter des fonctions géospatiales), vous devez penser à convertir ces données en chaînes Python et inversement.

Cette solution utilise Python et ses requêtes de package (python-requests.org) pour se connecter à l'API REST.
À titre d'exemple, nous ne démontrons que le géocodage et le géocodage inversé.


Degrés/minutes/secondes (DMS) vs degrés décimaux (DD)

Pour le positionnement, nous pouvons trouver n'importe quel endroit sur Terre en utilisant les coordonnées de latitude et de longitude.

Et nous mesurons ces coordonnées en utilisant degrés décimaux ou alors degrés/minutes/secondes.

Alors que les lignes de latitude sont comprises entre -90 et +90 degrés, les coordonnées de longitude sont comprises entre -180 et +180 degrés.

Remarquez-vous comment nous utilisons degrés pour les coordonnées de latitude et de longitude ? Commençons par quelques exemples clés de l'utilisation des unités angulaires.

Un examen des systèmes de coordonnées géographiques

Dans un système de coordonnées géographiques (GCS), nous pouvons référencer n'importe quel point de la Terre par ses coordonnées de longitude et de latitude. Parce qu'un GCS utilise une sphère pour définir des emplacements sur la Terre, nous utilisons des angles mesurés en degrés depuis le centre de la Terre jusqu'à n'importe quel point de la surface.

Les coordonnées (0°N, 0°E) correspondent à l'endroit où l'équateur et le premier méridien se croisent. Ce qui est amusant, c'est que si vous regardez cet endroit sur une carte, tout est océan. Mais parce que les professionnels du SIG définissent parfois à tort leur projet lors de l'ajout de coordonnées XY, (0°N, 0°E) s'était transformé en un lieu fictif appelé « île nulle ».

Lorsque nous nous déplaçons vers le nord le long du premier méridien, la valeur de longitude reste fixe à 0°. Mais l'angle de latitude et les coordonnées augmentent parce que nous nous déplaçons vers le nord.

Si nous nous déplaçons vers le nord à un angle de 51,5°, cela vous positionne sur l'Observatoire royal de Greenwich, en Angleterre, comme illustré ci-dessous. En fait, c'est pourquoi la ligne de longitude 0° est le point de départ de référence. A partir du méridien de Greenwich, nous pouvons trouver des positions est et ouest.

Parce que le premier méridien est le point de départ 0° pour les coordonnées de longitude, tout est référencé à partir d'ici.

Par exemple, nous pouvons changer l'angle à 80,4° ouest. Cela nous éloigne de 80,4°W du méridien principal. Et par hasard, Pittsburgh se situe sur cette ligne de longitude à environ (40,4°N, 80,4°W)

L'Équateur est de 0° de latitude où nous mesurons le nord et le sud. Cela signifie que tout au nord de l'équateur a des valeurs de latitude positives. Alors que tout au sud de l'équateur a des valeurs de latitude négatives.

Alternativement, le méridien de Greenwich (ou méridien principal) est une ligne de longitude zéro à partir de laquelle nous mesurons l'est et l'ouest.

Degrés décimaux vs degrés/minutes/secondes

Une façon d'écrire des coordonnées sphériques (latitudes et longitudes) consiste à utiliser les degrés-minutes-secondes (DMS). Les minutes et les secondes vont de 0 à 60. Par exemple, la coordonnée géographique exprimée en degrés-minutes-secondes pour la ville de New York est :

LATITUDE: 40 degrés, 42 minutes, 51 secondes N
LONGITUDE: 74 degrés, 0 minute, 21 secondes W

Mais vous pouvez également exprimer les coordonnées géographiques en degrés décimaux. C'est juste une autre façon de représenter le même endroit dans un format différent. Par exemple, voici New York en degrés décimaux :

LATITUDE: 40.714
LONGITUDE: -74.006

Bien que vous puissiez facilement convertir les coordonnées à la main, la FCC dispose d'un outil de conversion DMS-Decimal qui peut convertir entre les degrés décimaux et les degrés/minutes/secondes.

Essayez par vous-même

Lorsque vous associez deux coordonnées (X, Y), vous pouvez localiser n'importe quoi sur Terre avec un système de coordonnées géographiques.

Vous pouvez exprimer les coordonnées principalement de deux manières différentes. Par exemple, vous pouvez utiliser des degrés décimaux ou des degrés-minutes-secondes. Mais il existe même de nouvelles façons de plus en plus d'aborder le monde, telles que What3Words.

Une fois que vos emplacements sont dans un GCS, les géographes projettent souvent leurs emplacements dans un système de coordonnées projetées (PCS). Les PCS comme le State Plane Coordinate System (SPCS) ou l'Universal Transverse Mercator (UTM) sont toujours basés sur un GCS basé sur une sphère.


Au-dessus du tableau que vous avez fourni dans la capture d'écran, se trouve une légende qui indique la signification de ces chiffres :

Je ne vous blâme pas d'être venu ici pour demander cela, car la notation ( $ imes 10^4$ ) peut être déroutante pour quelqu'un qui n'y est pas habitué (et je ne pense pas que cela soit enseigné à l'école, en général). Mais ce que cela signifie, c'est que des nombres comme 1383, qui est la coordonnée $x$ (le long de l'axe $a$ de la maille élémentaire) donnée pour le 6e atome de carbone, C(6), signifient en réalité 0,1383. Le nombre 1383(3) signifie (0,1383 +/- 0,0003). De même, les coordonnées $y$ et $z$ sont en fait des longueurs fractionnaires le long des axes $b$ et $c$ de la maille cristalline.

Je ne vous blâme pas non plus si vous êtes confus par la signification de ces chiffres, car la légende du tableau dit "paramètres de position atomiques" ce qui semble (au moins pour moi) une manière non conventionnelle de dire "coordonnées atomiques". Au moins une partie différente du même article décrit ce tableau comme répertoriant les coordonnées atomiques :

Le tableau 2 contient également les "coordonnées internes" que vous utiliseriez si votre programme de modélisation nécessite une entrée au format ZMAT.

En résumé: Le tableau de votre question correspond aux coordonnées fractionnaires des atomes par rapport à la maille unitaire (bien qu'il comporte également des incertitudes sur chaque valeur de coordonnée). Vous avez mentionné dans les commentaires que vous avez l'habitude de voir des fractions exactes comme 1/4 et 3/4, mais dans ce cas, la molécule n'est pas aussi simple que les structures en treillis de manuels telles que NaCl. Ainsi, lorsqu'elles seront mesurées expérimentalement, elles ne correspondront pas à des fractions simples et auront une incertitude associée.

Dans le cas ci-dessus, la fraction serait approximativement 1383/10000, mais rappelez-vous qu'il y a une incertitude, donc sous forme fractionnaire, la coordonnée $x$ serait en fait :


Notes d'utilisation

Comme DataTri les informations ont été collectées à l'aide de différentes procédures, cette compilation peut contenir certains biais inhérents qui doivent être traités lorsque les données sont destinées à être utilisées.

La plupart des données ont été obtenues à partir d'articles publiés dans des revues scientifiques, accompagnés de ceux fournis par des collègues. Bien que les données couvrent 24 pays, il y avait certains pays comme le Brésil, le Mexique et l'Argentine pour lesquels le volume de données était plus élevé que pour les autres. Dans le cas du Mexique et du Brésil, le nombre de données d'occurrence par pays inclus dans DataTri semble être principalement influencé par deux facteurs : (i) le nombre d'espèces de triatomes présentes dans chaque pays (les deux pays ont le plus grand nombre d'espèces de triatomes), et (ii) par le nombre de données d'occurrence publiées et fournies par des collègues, ( le Mexique et le Brésil sont également les pays avec la plus grande quantité de données collectées), une explication de ce dernier facteur va au-delà de l'objectif de cet article. Dans le cas de l'Argentine, il existe également un grand nombre de données d'occurrence, mais dans ce cas, c'est parce que le DataTri initiative est née de chercheurs argentins avec une grande contribution aux données d'occurrence. En ce qui concerne l'échantillonnage des habitats, nous reconnaissons qu'il existe un biais potentiel en faveur des habitats domiciliaires et péridomiciliaires car ce sont les habitats d'importance épidémiologique majeure et la cible des campagnes de lutte antivectorielle. De plus, la rareté des données sur l'habitat sylvatique résulte également de la difficulté des procédures d'échantillonnage dans la grande variété d'habitats sylvatiques utilisés par les triatomines. Enfin, il convient également de préciser que l'information sur la date n'est pas disponible dans 35 % des enregistrements. Par conséquent, nous recommandons que toute analyse basée sur cet ensemble de données utilise des méthodes qui prennent en compte de tels biais.

Malgré les biais d'information décrits ci-dessus, DataTri constitue une précieuse compilation de données géographiques américaines sur les triatomes aussi complète, actualisée et intégrée que possible. Actuellement, par rapport à d'autres bases de données publiques sur la biodiversité, DataTri triple le nombre d'enregistrements de données sur les triatomes trouvés dans la base de données GBIF, et son volume est encore plus élevé par rapport à d'autres bases de données publiques telles que BISON (https://bison.usgs.gov/#home), INaturalist (https:// www.inaturalist.org/) ou les sites Web des musées. Ainsi, DataTri a une meilleure représentativité des données concernant le nombre d'espèces, le nombre de pays et que chaque enregistrement a un emplacement avec une coordonnée géographique précise.

Une information spatiale précise basée sur des coordonnées géographiques permet également de lier et de compléter avec d'autres bases de données telles que VectorBase, qui fournit des données sur l'information génétique vectorielle, et un autre ensemble de données publié dans Scientific Data 19 qui fournit des données sur Trypanosoma cruzi occurrence/prévalence chez l'homme, les hôtes alternatifs et les triatomes. De plus, comme cet ensemble de données est hébergé dans un référentiel ouvert et public, nous espérons qu'il contribuera à atteindre les objectifs nationaux et internationaux tels que la promotion de l'échange d'informations biologiques, l'augmentation et l'amélioration de l'accessibilité de ces informations, la fourniture de données biologiques produites et compilées. dans plusieurs pays, et l'amélioration de la connaissance de la biodiversité et des données épidémiologiques liées à la maladie de Chagas.


Dans cet article, je démontre les calculs appropriés utilisés lorsque vous travaillez avec des levés conventionnels qui utilisent des coordonnées de plan d'état. J'ai délibérément choisi une traversée en Pennsylvanie qui grimpe d'environ 1100 pieds sur une longueur de 2 miles. En examinant ce site particulier à titre d'exemple, le lecteur peut voir les effets de l'élévation sur les calculs et les erreurs de fermeture de cheminement. Enfin, je présente des méthodes plus simples qui peuvent être utilisées lorsque les différences d'altitude dans le cheminement ne sont pas aussi importantes.

Un exemple de cheminement

Figure 1 représente le chemin d'un cheminement qui s'étend principalement du sud au nord dans la zone 3701 du système de coordonnées planes de l'État de Pennsylvanie 1983 (SPCS 83). Cette traversée suit une route qui part de l'intersection de deux routes nationales et se termine près de l'entrée d'un parc national. Il gravit également une colline dont l'altitude varie d'environ 1100 pieds du début à son terminus.

Le but de démontrer les calculs pour ce cheminement est double. Premièrement, il démontre les méthodes utilisées pour réduire correctement les distances observées à leurs longueurs de grille équivalentes. Deuxièmement, cela démontre l'importance de réduire les distances en utilisant à la fois les facteurs d'échelle et les facteurs d'altitude. La traverse mesure environ 2,25 milles de long (10 951 pieds entre les extrémités), ce qui donne une pente moyenne d'environ 9,9 % sur toute sa longueur.

Les observations pour ce cheminement de liaison sont présentées dans Tableau 1 . L'élévation approximative (H) à chaque station a été obtenue à partir d'une carte. Ces valeurs approximatives sont suffisantes pour déterminer un facteur d'élévation approximatif pour les réductions de distance ultérieures. La hauteur du géoïde (N) a été obtenue en utilisant des coordonnées approximatives (discutées plus loin) et le modèle du géoïde 12A du National Geodetic Survey (NGS) ( www.ngs.noaa.gov/GEOID/GEOID12A/ ). La hauteur géodésique approximative en mètres des stations a été calculée à l'aide de Équation (1). L'angle à la station 2 était par rapport à une marque d'azimut, qui avait un azimut géodésique de 171°10󈧡.6″. Les distances horizontales ont été enregistrées en unités de pieds.

Les coordonnées SPCS 83 NE de la station 2 en pieds sont (413892,42, 2 366 343,66) et pour la station 12 sont (423 389,71, 2 366 191,75). L'azimut géodésique jusqu'à la dernière marque d'azimut du cheminement est de 359°19󈧏”.

En utilisant le logiciel NGS Geodetic Toolkit (www.ngs.noaa.gov/cgi-bin/spc_getgp.prl) et en convertissant les coordonnées de la station en mètres, nous voyons que l'angle de convergence à la station 2 est de 0°57󈧠.13″ , et son facteur d'échelle est de 0,9999592. En inversant les coordonnées de la station 12 sur la même page Web, nous trouvons que l'angle de convergence à cette station est de 0°57 & 821728.19 & 8243 avec un facteur d'échelle de 0.9999583. À partir de l'angle de convergence initial de 57 ° 81728 et du fait que les stations terminales sont distantes de 10 951 pieds, nous pouvons voir que si aucune correction des azimuts géodésiques n'était effectuée, toutes les coordonnées de la station seraient tournées et les coordonnées de la station finales calculées serait en désaccord avec les coordonnées données de plus de 183 pieds à la station 12.

Ainsi, pour commencer les calculs, nous devons d'abord convertir nos azimuts géodésiques en azimuts de grille en utilisant Équation (2) où Az est l'azimut de la grille de la ligne, l'azimut géodésique de la ligne et γ l'angle de convergence à la station avec une longitude de , qui est dérivé dans une zone de cartographie conique conforme de Lambert par Équation (3) où λCM est la longitude ouest positive du méridien central, qui est de 77°45′ W dans la zone 3701, et n (également connu sous le nom de sin φ0) est une constante de zone dérivée, qui est 0,661539733812. À partir de l'équation (2), nous voyons que l'azimut de la grille jusqu'à la première marque d'azimut est de 171°10󈧡.6″ - 0°57󈧠.13″, ce qui correspond à 170°13󈧅.5″. De même, l'azimut de la grille de la dernière station à sa marque d'azimut est 359°19󈧏” - 0°57󈧠.19″, ou 358°21󈧮.8″.

À partir de la différence des facteurs d'échelle aux deux extrémités, nous voyons qu'il y a cinq chiffres communs (0,99995) et un qui varie, donnant six chiffres significatifs dans les facteurs d'échelle. Parce que notre plus longue distance observée ne contient que six chiffres, cela implique que nous pouvons peut-être nous débrouiller avec un seul facteur d'échelle pour réduire nos distances horizontales observées. Cependant, cette hypothèse serait incorrecte car les différences d'altitude de près de 1 100 pi sur toute la longueur du cheminement donnent des facteurs d'altitude qui varient considérablement à la cinquième décimale.

Par exemple, à la première station avec une hauteur géodésique approximative de 1165 pi (355,225 m), nous trouvons que le facteur d'élévation (EF) est de 0,99994425 de Équation (4) où Re est le rayon moyen de la Terre, qui est de 6 371 000 m. À la station 12 avec une hauteur géodésique approximative de 684,761 m, le facteur d'élévation est de 0,99989253. Notez qu'à la station 12, le facteur d'élévation donne une précision de distance de seulement 1:9300 quel que soit le facteur d'échelle.

À ce stade, nous sommes presque prêts à effectuer des calculs de traversée de plan standard. Nous avons nos azimuts de début et de fin dans le système de projection cartographique de la zone PA Nord ainsi que les coordonnées initiales et finales. Cependant, les distances doivent encore être réduites à la surface de projection de la carte.

Comme représenté sur la Figure 2 , cette réduction se fait en deux étapes. Premièrement, la distance horizontale observée (Lm) doit être réduite à son équivalent géodésique (Le). Ceci est fait en utilisant le facteur d'élévation moyen pour chaque parcours de traverse. La seconde réduction consiste à prendre la longueur géodésique de la ligne et à la réduire à la surface de projection cartographique (Lg). Cette réduction se fait en fonction des facteurs d'échelle de chaque cours.

Pour les travaux d'arpentage typiques où la longueur des lignes est relativement courte (comme indiqué dans cet exemple), un facteur d'échelle moyen utilisant les deux extrémités des lignes peut être utilisé avec Équation (5) où k1 et k2 sont les facteurs d'échelle des stations aux extrémités de la ligne.

Cependant, pour les distances plus longues, une moyenne pondérée des facteurs d'échelle doit être basée sur Équation (6) où kmid est le facteur d'échelle au milieu de la ligne. Les distances typiques observées par les géomètres justifient rarement l'utilisation de l'équation (6). Le facteur décisif sera le nombre de chiffres communs dans k1 et k2 par rapport à la longueur des lignes.

Par exemple, si une distance pouvait être observée entre les stations 2 et 12 alors, comme mentionné précédemment, les facteurs d'échelle varient à la sixième décimale (0,9999592 et 0,9999583). Étant donné que la distance totale entre ces deux stations est d'environ 10 951,00 pieds, ce qui comporte sept chiffres, il serait sage d'utiliser l'équation (6). Cependant, dans cet exemple, notre plus longue distance horizontale observée est de 2230,58 pieds, nous pouvons donc raisonnablement supposer que l'équation (5) est suffisante. Comme on peut le voir dans le tableau 2, les facteurs d'échelle aux extrémités de chaque ligne ne varient jamais avant la septième décimale, ce qui justifie d'utiliser l'équation (5) au lieu de l'équation (6) car nos distances n'ont que six chiffres au maximum.

Créer Tableau 2 , nous devons connaître les altitudes approximatives aux extrémités de chaque distance. Ceux-ci ont été obtenus à partir d'une feuille de carte. Pour obtenir les facteurs d'échelle (k), des coordonnées de station approximatives sont également nécessaires, comme cela a été mentionné précédemment, pour obtenir les hauteurs du géoïde à chaque station. Ils sont calculés à l'aide de calculs de cheminement standard avec des distances horizontales et des azimuts de grille observés.

Ces coordonnées de station approximatives sont ensuite utilisées pour déterminer le facteur d'échelle et la hauteur du géoïde à chaque station à l'aide d'un logiciel approprié, tel que celui fourni par le NGS. Ces valeurs sont indiquées dans la colonne intitulée k dans le tableau 2. Le facteur d'élévation à chaque station est obtenu à l'aide de l'équation (4) et d'un rayon moyen de la Terre. Étant donné que ces facteurs d'échelle sont sans unité, les distances peuvent avoir n'importe quelle unité. Cependant, il est important de se rappeler lors du calcul de l'équation (4) d'avoir Re, h, H et N dans les mêmes unités, c'est pourquoi j'ai choisi de convertir mes élévations de station en mètres.

Une fois que le facteur d'échelle (k) et le facteur d'élévation (EF) sont déterminés pour chaque station, ils sont moyennés. Une autre approche consiste à faire la moyenne des hauteurs géodésiques des extrémités pour obtenir le facteur d'élévation moyen directement à partir de l'équation (4).

Le facteur combiné (CF) pour chaque cours est ensuite calculé comme suit Équation (7). Ce facteur combiné est multiplié par la distance horizontale observée respective pour obtenir la distance équivalente de projection cartographique (grille), ou Équation (8).

En utilisant des azimuts de grille et des distances de grille, le cheminement est calculé à l'aide de techniques de calcul de plan standard. Si le cheminement dans cet exemple avait été calculé à l'aide des distances horizontales et des azimuts de grille observés, l'erreur de fermeture du cheminement serait de 1,25 pied avec une précision relative de 1:9400. Cependant, en utilisant les distances de grille, l'erreur de fermeture linéaire du cheminement est de 0,32 pied avec une précision relative meilleure que 1:36 000.

Le problème des coordonnées au sol

Même s'il n'y a pas de système de coordonnées reconnu à la surface de la Terre, certains géomètres insistent pour essayer d'effectuer des calculs de coordonnées de plan d'état au sol. Ces géomètres réalisent que s'ils divisent simplement les coordonnées du plan d'état à chaque station par le facteur combiné pour la station, ils peuvent obtenir des coordonnées au sol. Bien que cela soit vrai, des précautions doivent être prises lors de l'utilisation des coordonnées au sol dans des calculs ou des situations de mise en page. La raison en est l'élévation des stations.

En utilisant l'exemple précédent, nous avons un facteur combiné à la station 2 de 0,99990340. Si cela est divisé en coordonnées nord et est données pour la station 2, nous obtenons les coordonnées au sol NE de (413 932,405, 2 366 572,265). À la station 12, nous avons un facteur combiné de 0,99985080, qui, une fois divisé en coordonnées pour la station 12, donne des coordonnées au sol NE de (423 452,887, 2 366 544,828).

En utilisant les distances horizontales observées, Tableau 3 montre les calculs de cheminement initiaux. La différence entre les coordonnées au sol des stations 2 et 12 est 9520,482 en latitude et -27.438 en départ. Comme on peut le voir dans le tableau 3, ces valeurs diffèrent de la somme des latitudes et des écarts calculés avec les distances horizontales observées de -22,012 ft et -124,891 ft, ce qui entraîne une erreur de fermeture linéaire de 126,382 ft et une précision relative pour le cheminement de 1 :100.

La raison de ces écarts importants est due à la différence d'altitude entre les stations, c'est pourquoi ce cheminement particulier a été choisi. Comme on peut le voir dans figure 3 , les coordonnées de la grille se trouvent sur une surface plane. Cependant, les coordonnées au sol sont projetées radialement du centre de la Terre à travers leurs emplacements de grille jusqu'à la surface topographique de la Terre. Ainsi, la distance horizontale ne se projette pas correctement vers la deuxième station parce que le plan horizontal à n'importe quelle station n'est pas parallèle à la surface de projection cartographique. Cette différence est visible dans l'exemple de calcul. Cette erreur se produira également lors de la mise en page. Ainsi, il n'est pas prudent d'utiliser des coordonnées au sol pour tracer des alignements ou des structures. Ils ne correspondent tout simplement pas à la théorie des projections cartographiques.

Maintenant, certains peuvent déclarer qu'ils n'ont vu aucune erreur déraisonnable lors de l'utilisation des coordonnées au sol. Cela peut être vrai si la zone de l'enquête est raisonnablement plate. In this case the difference in elevations between stations is small and, similarly, the error caused by using ground coordinates may be small. But this is living very dangerously and could not be supported in a court of law if an error does occur.

The Project Combined Factor Method

The computations shown in this article are not complicated, but they certainly do require more effort than simply using the observed horizontal distance. If only the Earth were flat rather than round, this would not be a problem. Well, it is not, so we have a choice. We can use geodetic computations when laying out or observing a station, or we can use a map projection and pretend the Earth is flat. The latter will provide the same results as geodetic computations but requires that all observations are on the map projection surface.

To simplify the computations, manufacturers have developed routines in their survey controllers to handle map projection surfaces. In fact, one obvious method is displayed each time a project is started. Part of the settings for a project is a scale factor. When using state plane coordinates, this scale factor should be set to an average combined factor for the project.

Using the combined factors for Stations 2 and 12, we see that the average combined factor is 0.99987712. If the observed horizontal distances are all reduced using this average combined factor, the traverse misclosure would be 0.40 ft for a survey relative precision of 1:29,000. This differs from the correct computations by only a 0.08-ft difference in the 11,758-ft traverse.

The reader should remember that this survey was selected to demonstrate the proper procedures in reducing observations to a map projection surface. In typical surveys, this large of a difference is seldom seen. In fact, it is more common to see differences only in the 0.001 ft between a single combined factor and proper methods. However, even with that said, it is only 0.08 ft in 11,758 ft or 1:147,000. It is up to the professional to decide if this difference is acceptable for the purpose of the survey.

During layout, the survey controllers will use the single scale factor to determine the proper ground distance. To do this it inverses the map projection coordinates to determine the distance on the map projection surface between the two stations. It then uses a rearranged Equation (7) and the project scale factor to determine the horizontal length at the surface between the two layout stations. Simply put, today’s survey controllers can handle map projection computations both in the direct and inverse modes when a proper combined factor is supplied for the project, thereby removing the drudgery of doing these computations by hand and simplifying the survey.

The bottom line is that only map values should be used to compute mapping coordinates if you wish to compute state plane coordinates and maintain the accuracy of your survey. However, as was shown in this article, it is possible to minimize this work if a single combined factor can be used in distance reductions. When this is the case, a project scale factor is determined for the survey and entered into your survey controller project. The software will then correctly perform the computations whether it is an observation or stake-out situation. This project factor should be part of the metadata of the survey and retained for future reference, just as the original observations are retained.

In areas where geographic information systems (GIS) are being implemented, the state plane coordinate system provides a common reference plane, which allows surveys of various types to be combined into a cohesive map. However, if observations are not properly handled in the computations of the coordinates, the result will be a mismatch of mapping elements that are located by various surveys and, in the end, a map of little or no value.


1. Introduction

Rapid access to desired geospatial data is the key to data-driven geography in the context of big Earth data (Miller & Goodchild, 2015 ), which requires efficient geospatial data integration and sharing. Unfortunately, the processes of integration and sharing face many challenges. One of the challenges is semantic heterogeneity caused by the characteristics of multiple sources, types, and forms of geospatial data. Many efforts for geospatial data integration and sharing, based on the idea of metadata standards, have been made in the past. Examples include the Federal Geographic Data Committee (FGDC) 1 , the National Spatial Data Infrastructure (NSDI) 2 , the International Organization for Standardization (ISO) 19115 3 , and the National Map from the United States Geological Survey (USGS) (Budak Arpinar et al., 2006 ). However, these efforts only partially addressed the semantic issues (Baglioni, Giovannetti, Masserotti, Renso, & Spinsanti, 2008 Lutz & Klien, 2006 ).

A more promising approach to solve heterogeneity problems is to develop and use ontologies (Baglioni, Giovannetti, Masserotti, Renso, & Spinsanti, 2008 Hu, 2017 ). Ontologies are formal and explicit specifications of shared concepts in a machine-readable way (Gruber, 1993 Studer, Benjamins, & Fensel, 1998 ). Ontologies can be used to provide a semantic description for geospatial data and help computers to understand the semantic meaning implied in the content of geospatial data. Ontologies can also be used to describe the relationships between semantic entities, and the reasoning mechanism of ontologies can help to discover more implicit relationships (Peuquet, 2002 ). Thanks to these advantages, ontologies are among the best solutions to implement geospatial data integration and sharing on the semantic level.

In the 1990s, ontologies were introduced in the domain of geographic information science (Deliiska, 2007 Hahmann & Stephen, 2018 Hu et al., 2013 Li et al., 2017a Liu, Li, Shen, Yang, & Luo, 2018 Reitsma, Laxton, Ballard, Kuhn, & Abdelmoty, 2009 Stock et al., 2012 Sun, Wang, Ranjan, & Wu, 2015 Winter, 2001 ). These past decades have witnessed a rapid development of geo-ontologies, namely extensions of ontologies in geographic information science (GIScience). The insights from the previous studies can be organized into two aspects (Agarwal, 2005 ). The first aspect is trying to provide a unified framework of shared geographic concepts by constructing a top-level geo-ontology, such as the seven-level hierarchy of geo-ontology (Couclelis, 2010 ), 5-tier geo-ontology (Frank, 2001 ), and a semantic reference system (Kuhn, 2003 ). The second aspect is to develop a domain-level geo-ontology to facilitate specific tasks. Many task-oriented geo-ontologies focused on different applications, including information integration (Bittner, Donnelly, & Smith, 2009 Buccella, Cechich, & Fillottrani, 2009 Buccella et al., 2011 Chen, Sabri, Rajabifard, & Agunbiade, 2018 Comber, Fisher, & Wadsworth, 2011 Fonseca, Egenhofer, Agouris, & Camara, 2002 Hong & Kuo, 2015 Uitermark, van Oosterom, Mars, & Molenaar, 2005 Wang, Ma, & Chen, 2018 Zhao, Zhang, Wei, & Peng, 2008 ), information retrieval (Baglioni et al., 2008 Gui et al., 2013 Li, Goodchild, & Raskin, 2014 Lutz & Klien, 2006 Peachavanish & Karimi, 2007 Sun et al., 2015 Wiegand & García, 2007 ), data interoperability (Brodeur, Bedard, Edwards, & Moulin, 2010 Kuo & Hong, 2016 ), semantic representation of geospatial data (Dean, 2007 Fonseca & Llano, 2011 Schuurman & Leszczynski, 2006 Sun et al., 2015 ), geospatial clustering (Wang, Gu, Ziebelin, & Hamilton, 2010 ), spatial decision support (Li, Raskin, Goodchild, & Janowicz, 2012 ), disaster management and response (Xu, Nyerges, & Nie, 2014 Zhang, Zhao, & Li, 2010 ), web service discovery (Chen, Chen, Hu, & Di, 2011 Klien, Lutz, & Kuhn, 2006 ), composition of geoprocessing services (Li et al., 2015 Lutz, 2007 ), urban environment analysis (Fonseca, Egenhofer, Davis, & Borges, 2000 ), and environment modeling (Fallahi, Frank, Mesgari, & Rajabifard, 2008 ). This paper mainly focuses on the studies relevant to geospatial data integration and sharing.

An integration process includes two steps: semantic enrichment and mapping discovery (Buccella et al., 2009 ). Semantic enrichment is to annotate the data with essential semantic information. Mapping discovery is to find the mappings of semantic annotations of different data. According to the roles of ontologies in these steps, ontology-based methods for data integration can be classified into three categories: single-ontology methods, multiple-ontologies methods, and hybrid methods (Wache et al., 2001 ). A single top-level ontology was developed to describe all the relations between different kinds of basic entities that were frequently used to annotate the relations between data in the integration process (Bittner et al., 2009 ). Hong and Kuo ( 2015 ) established multiple bridge ontologies to determine the relations of concepts for cross–domain geospatial data integration. Chen et al. ( 2018 ) also transformed domain knowledge into multiple domain ontologies that were used to bond the data and ontology via semantic enrichment. Buccella et al. ( 2011 ) annotated geospatial data with multiple domain ontologies at the semantic enrichment step, and then a global ontology was introduced to complete the semantic mapping by combining the domain ontologies.

To enable geospatial data sharing, ontologies were used to implement geospatial data discovery at the semantic level in the previous studies. Generally, an ontology was developed to provide a formal and hierarchical semantic annotation for geospatial data, and users can carry out data discovery on the deeper semantic details of geospatial data based on the developed ontology (Stock et al., 2013 ). Lutz and Klien ( 2006 ) first proposed a relatively complete framework, including components for creating an ontology, registration mappings to describe the relationships between the ontology and feature types additionally, a user interface was implemented so that the users could conduct data discovery. Andrade, Baptista, and Davis ( 2014 ) also used an ontology to improve data discovery in terms of space, time, and theme. Wiegand and García ( 2007 ) formalized the relationships between different tasks and information on data sources for each task using an ontology thus, data sources required by a specific task could be found by reasoning on the ontology.

Another focus of geospatial data sharing is to enhance semantic interoperability of geospatial data (Fallahi et al., 2008 ). An ontology-based conceptual framework to describe the different configurations involved in geospatial data interoperability was proposed by Brodeur et al. ( 2010 ), which included five ontological phases (including reality, a cognitive model of reality, and a set of conceptual representations, etc.). Kuo and Hong ( 2016 ) leveraged a bridge ontology to generate semantic mappings of cross-domain concepts to facilitate geospatial data interoperability.

Geospatial metadata was also an important aspect for data sharing. Some studies focused on improving the quality of geospatial metadata using ontologies. Soleil et al. ( 2015 ) initially quantitatively measured two types of metadata uncertainty (incompleteness and inaccuracy) via possibilistic logic and probabilistic statistics subsequently, an ontology that includes these uncertainties was developed to improve the quality of metadata. Schuurman and Leszczynski ( 2006 ) proposed ontology-based geospatial metadata, which added some non-spatial fields to the existing metadata schemas to describe geospatial data, such as sampling methodologies or a measurement specification.

The aforementioned studies greatly facilitated the progress in this field. However, most of these studies developed general ontologies for GIScience domain. The ontologies developed for geospatial data integration and sharing did not consider all aspects of semantic heterogeneity. Only spatial, temporal, and thematic information of geospatial data was used, ignoring the information of provenance and morphology. Hence, integration and sharing of heterogeneous geospatial data require a specialized geospatial data ontology to help deal with the existing semantic issues.

a systematic analysis of the semantic problems in geospatial data integration and sharing

an integral general framework to provide the overall structure and composition of GeoDataOnt and

a multilayer modular GeoDataOnt base that includes the semantic knowledge about geospatial data.

The remainder of this paper is structured as follows. Section 2 describes the characteristics hierarchy of geospatial data. Section 3 presents a systematic analysis of the semantic problems in geospatial data integration and sharing. The general framework of GeoDataOnt is presented in Section 4. Section 5 shows the detailed design and implementation of GeoDataOnt. Section 6 discusses the key limitations, challenges, and broad applications of GeoDataOnt. Section 7 summarizes this paper.


2. Basic idea of the activity design for participatory geo-analysis

The activity that could constitute the problem-solving pathway is the key point of this proposed method for participatory geo-analysis (Voinov et al. 2018 ). These activities can generally be classified into four categories according to their different purposes: awareness-related activities, data-related activities, model-related activities, and application-related activities (Robson et al. 2008 Laniak et al. 2013 Blocken and Gualtieri 2012 ).

(1) The awareness-related activities include a series of tasks to gain awareness about how to conduct a geo-analysis. During these activities, geographic problem-related resources are collected to enhance our understanding of geographic phenomena in geographic problems. Additionally, the background, limitations, accessible methods, and other valuable information about the problems need to be clarified. Therefore, it is important that interdisciplinary participants communicate about ideas and demands, prepare sufficient resources, and sufficiently understand the geographic problems (Badham et al., 2019 ).

(2) The data-related activities include tasks that are primarily relevant to data operations (e.g., converting data formats and editing data). Data are crucial for demonstrating geographic phenomena and processes. However, due to the heterogeneity of data, it is sometimes infeasible to use data directly. The data-related activities aim to prepare appropriate data and discover valuable information by changing the format, structure, attribute, or representation of data. Through these activities, participants can share knowledge, communicate about data processing methods, and conduct data-related operations collaboratively.

(3) The model-related activities involve different tasks and operations that are related to models, such as conceptual model building, model calibration, and model evaluation. A geographic model is an abstract representation of knowledge on geographic systems, and this type of representation can be used in the simulation and analysis of geographic processes (Badham et al., 2019 ). However, using an appropriate method to build a qualified model is usually difficult. Therefore, these activities are needed during modeling practice to generate credible models. In the model-related activities, participant engagement can improve understanding of the interactions in the geographic environment and lead to better modeling outcomes (Jakeman, Letcher, and Norton 2006 ).

(4) The application-related activities involve the application of prepared data, models, and methods to address geographic problems in human life directly. Appropriate data and models that were previously processed or built are used in these activities. For example, a forest growth model was built, and the field data were processed. In the application-related activities, different tasks are required to use these data and models to forecast growth and yield for forest management. Furthermore, participatory application-related activities can help participants, including managers and stakeholders, to balance different viewpoints and obtain better outcomes while addressing geographic problems (Jakeman, Letcher, and Norton 2006 Jones et al. 2009 ).

To help manage different tasks and represent the geo-analysis process during participatory geo-analysis practices, eight core activities are defined from these categories, namely context definition and resource collection, data processing, data analysis, data visualization, geo-analysis model construction, model effectiveness evaluation, geographical simulation, and decision making, as shown in Figure 1 (Jakeman, Letcher, and Norton 2006 Elsawah et al. 2017 Badham et al., 2019 ). These activities are designed in accordance with the purpose of the different tasks in the geo-analysis process. For example, both context definition and resource collection are preparatory tasks for geo-analysis.


Voir la vidéo: #2 - Conversion des Coordonnées Géographiques en Coordonnées UTM avec QGis