{"id":9005,"date":"2025-03-18T14:15:09","date_gmt":"2025-03-18T14:15:09","guid":{"rendered":"https:\/\/maruticorporation.co.in\/vishwapark\/?p=9005"},"modified":"2025-10-29T05:39:13","modified_gmt":"2025-10-29T05:39:13","slug":"optimisation-avancee-de-la-segmentation-d-audience-methodes-techniques-algorithmes-et-deploiements-pour-une-hyper-ciblage-precis","status":"publish","type":"post","link":"https:\/\/maruticorporation.co.in\/vishwapark\/optimisation-avancee-de-la-segmentation-d-audience-methodes-techniques-algorithmes-et-deploiements-pour-une-hyper-ciblage-precis\/","title":{"rendered":"Optimisation avanc\u00e9e de la segmentation d\u2019audience : m\u00e9thodes techniques, algorithmes et d\u00e9ploiements pour une hyper-ciblage pr\u00e9cis"},"content":{"rendered":"<h2 style=\"font-size: 1.5em; margin-top: 30px; margin-bottom: 15px; color: #34495e;\">1. Comprendre en profondeur la m\u00e9thodologie de segmentation pour des campagnes hyper-cibl\u00e9es<\/h2>\n<h3 style=\"font-size: 1.2em; margin-top: 25px; margin-bottom: 10px; color: #7f8c8d;\">a) Analyse des types de segmentation avanc\u00e9e : d\u00e9mographique, comportementale, psychographique, contextuelle<\/h3>\n<p style=\"font-size: 1em; line-height: 1.6; margin-bottom: 20px;\">Pour ma\u00eetriser la segmentation experte, il est essentiel de distinguer pr\u00e9cis\u00e9ment chaque type et d\u2019en comprendre les subtilit\u00e9s. La segmentation d\u00e9mographique ne se limite pas \u00e0 l\u2019\u00e2ge ou au genre ; il faut int\u00e9grer des variables telles que la localisation pr\u00e9cise (commune, code postal), le statut socio-\u00e9conomique, la profession ou encore le cycle de vie du client. La segmentation comportementale doit s\u2019appuyer sur la collecte de donn\u00e9es multi-canal : clics, temps pass\u00e9, parcours utilisateur, historique d\u2019achats, engagement sur les r\u00e9seaux sociaux, etc. La segmentation psychographique implique d\u2019analyser les valeurs, les motivations, et les attitudes via des enqu\u00eates ou des outils d\u2019analyse s\u00e9mantique appliqu\u00e9s aux interactions digitales. La segmentation contextuelle exige d\u2019int\u00e9grer des donn\u00e9es en temps r\u00e9el sur l\u2019environnement de l\u2019utilisateur : contexte g\u00e9ographique, device utilis\u00e9, moment de la journ\u00e9e, conditions m\u00e9t\u00e9orologiques, etc. La ma\u00eetrise de ces types permet de d\u00e9finir des segments hautement granulaires, orient\u00e9s vers des ciblages pr\u00e9cis.<\/p>\n<h3 style=\"font-size: 1.2em; margin-top: 25px; margin-bottom: 10px; color: #7f8c8d;\">b) D\u00e9finition pr\u00e9cise des objectifs de segmentation : KPI, taux de conversion, engagement<\/h3>\n<p style=\"font-size: 1em; line-height: 1.6; margin-bottom: 20px;\">Chaque segment doit \u00eatre associ\u00e9 \u00e0 des indicateurs cl\u00e9s de performance (KPI) explicitement d\u00e9finis : taux d\u2019ouverture, CTR, taux de conversion, valeur moyenne par transaction, ou encore taux de r\u00e9tention. La segmentation doit aussi viser \u00e0 optimiser des m\u00e9triques d\u2019engagement : dur\u00e9e de session, interactions sociales, taux de rebond. La m\u00e9thode consiste \u00e0 \u00e9tablir une cartographie pr\u00e9cise des objectifs en lien avec la strat\u00e9gie marketing globale, puis \u00e0 calibrer chaque segment pour maximiser ces KPI. Par exemple, un segment de clients ayant d\u00e9j\u00e0 effectu\u00e9 un achat r\u00e9cent pourra \u00eatre optimis\u00e9 pour augmenter la fr\u00e9quence d\u2019achat, tandis qu\u2019un segment nouveau n\u00e9cessitera une approche d\u2019acquisition plus large.<\/p>\n<h3 style=\"font-size: 1.2em; margin-top: 25px; margin-bottom: 10px; color: #7f8c8d;\">c) Identification des donn\u00e9es sources : CRM, analytics, donn\u00e9es tierces, interactions en temps r\u00e9el<\/h3>\n<p style=\"font-size: 1em; line-height: 1.6; margin-bottom: 20px;\">L\u2019identification pr\u00e9cise des sources de donn\u00e9es est cruciale pour une segmentation avanc\u00e9e. Il faut cartographier l\u2019ensemble des flux : CRM interne pour l\u2019historique client, outils analytics (Google Analytics, Adobe Analytics) pour le comportement digital, plateformes de donn\u00e9es tierces (donn\u00e9es socio-d\u00e9mographiques enrichies, donn\u00e9es d\u2019intention d\u2019achat), et flux d\u2019interactions en temps r\u00e9el via des syst\u00e8mes de streaming (Kafka, Kinesis). L\u2019int\u00e9gration de ces sources doit respecter une architecture modulaire, permettant une extraction et une fusion efficace, par exemple via des processus ETL optimis\u00e9s ou des API RESTful. La collecte doit \u00e9galement respecter la conformit\u00e9 RGPD, en privil\u00e9giant l\u2019obfuscation ou l\u2019<a href=\"https:\/\/vmcorpintegral.com\/vm\/2025\/05\/18\/comment-preserver-la-stabilite-du-temps-face-aux-imprevus-et-aux-dereglements\/\">anonymisation<\/a> des donn\u00e9es sensibles.<\/p>\n<h3 style=\"font-size: 1.2em; margin-top: 25px; margin-bottom: 10px; color: #7f8c8d;\">d) S\u00e9lection des outils et plateformes adapt\u00e9es : CRM avanc\u00e9, DMP, outils d&#8217;automatisation<\/h3>\n<p style=\"font-size: 1em; line-height: 1.6; margin-bottom: 20px;\">Pour une segmentation experte, il est imp\u00e9ratif d\u2019utiliser des outils capables de g\u00e9rer des volumes de donn\u00e9es h\u00e9t\u00e9rog\u00e8nes et de fournir des capacit\u00e9s analytiques avanc\u00e9es. Un CRM \u00e9volu\u00e9 doit permettre d\u2019int\u00e9grer des donn\u00e9es comportementales et psychographiques, avec des fonctionnalit\u00e9s de segmentation dynamique. La plateforme DMP (Data Management Platform) doit offrir des options de clustering, de mod\u00e9lisation pr\u00e9dictive, et d\u2019automatisation des r\u00e8gles de ciblage. Les outils d\u2019automatisation marketing (HubSpot, Salesforce Marketing Cloud, Adobe Campaign) doivent \u00eatre configur\u00e9s pour appliquer des r\u00e8gles conditionnelles complexes, bas\u00e9es sur des scores, des profils multi-facteurs, ou des \u00e9v\u00e9nements en temps r\u00e9el. La compatibilit\u00e9 API est essentielle pour orchestrer ces syst\u00e8mes dans un flux coh\u00e9rent et r\u00e9actif.<\/p>\n<h3 style=\"font-size: 1.2em; margin-top: 25px; margin-bottom: 15px; color: #34495e;\">e) Mise en place d\u2019un cadre analytique pour mesurer la pertinence des segments cr\u00e9\u00e9s<\/h3>\n<p style=\"font-size: 1em; line-height: 1.6; margin-bottom: 30px;\">Il est n\u00e9cessaire d\u2019\u00e9tablir une architecture analytique robuste, int\u00e9grant des dashboards en temps r\u00e9el, des indices de stabilit\u00e9, et des indicateurs de segmentation : indice de silhouette, coh\u00e9rence intra-segment, distance inter-segments. La m\u00e9thode consiste \u00e0 utiliser des outils comme R ou Python (scikit-learn, pandas) pour r\u00e9aliser des analyses statistiques et visuelles approfondies. La validation crois\u00e9e doit \u00eatre syst\u00e9matis\u00e9e : par exemple, en subdivisant les donn\u00e9es en sous-ensembles pour tester la stabilit\u00e9 des clusters ou des mod\u00e8les supervis\u00e9s. La mise en place d\u2019un processus it\u00e9ratif de calibration garantit que chaque segment reste pertinent face aux \u00e9volutions comportementales et contextuelles.<\/p>\n<h2 style=\"font-size: 1.5em; margin-top: 30px; margin-bottom: 15px; color: #34495e;\">2. Collecte et int\u00e9gration de donn\u00e9es granulaires pour une segmentation experte<\/h2>\n<h3 style=\"font-size: 1.2em; margin-top: 25px; margin-bottom: 10px; color: #7f8c8d;\">a) \u00c9tapes pour la collecte de donn\u00e9es comportementales d\u00e9taill\u00e9es via tracking multi-canal<\/h3>\n<p style=\"font-size: 1em; line-height: 1.6; margin-bottom: 20px;\">Pour une segmentation fine, la collecte doit couvrir tous les points de contact : site web, application mobile, points de vente physiques, r\u00e9seaux sociaux, emails, et service client. La premi\u00e8re \u00e9tape consiste \u00e0 d\u00e9ployer des tags JavaScript et SDK mobiles pour le tracking comportemental, en utilisant des outils comme Tealium, Segment ou Adobe Launch. Ensuite, il faut configurer des \u00e9v\u00e9nements personnalis\u00e9s : clics, scrolls, temps de lecture, ajout au panier, abandon, etc. La collecte en temps r\u00e9el n\u00e9cessite la mise en place d\u2019un syst\u00e8me de streaming (Kafka ou RabbitMQ), pour capter instantan\u00e9ment les interactions et alimenter les mod\u00e8les en direct. La granularit\u00e9 doit viser des \u00e9v\u00e9nements individuels, avec des m\u00e9tadonn\u00e9es pr\u00e9cises (heure, device, localisation).<\/p>\n<h3 style=\"font-size: 1.2em; margin-top: 25px; margin-bottom: 10px; color: #7f8c8d;\">b) M\u00e9thodes pour enrichir les profils clients avec des donn\u00e9es tierces et sociales<\/h3>\n<p style=\"font-size: 1em; line-height: 1.6; margin-bottom: 20px;\">L\u2019enrichissement passe par des partenariats avec des fournisseurs de donn\u00e9es tierces : bases de donn\u00e9es socio-d\u00e9mographiques, intentions d\u2019achat via panels ou cookies tiers, et donn\u00e9es sociales issues d\u2019API (Facebook, Twitter, LinkedIn). La technique consiste \u00e0 faire correspondre ces donn\u00e9es via des cl\u00e9s anonymis\u00e9es ou des identifiants universels (e.g., hashed email ou device ID). La segmentation psychographique peut aussi s\u2019appuyer sur des analyses s\u00e9mantiques des interactions sociales, en utilisant des outils NLP (traitement du langage naturel) pour extraire des traits de personnalit\u00e9 ou des pr\u00e9f\u00e9rences. La cl\u00e9 est d\u2019automatiser ces enrichissements via des scripts Python ou ETL, en respectant la conformit\u00e9 RGPD.<\/p>\n<h3 style=\"font-size: 1.2em; margin-top: 25px; margin-bottom: 10px; color: #7f8c8d;\">c) Techniques d\u2019int\u00e9gration de donn\u00e9es h\u00e9t\u00e9rog\u00e8nes dans une plateforme unique (ETL, API, connectors)<\/h3>\n<p style=\"font-size: 1em; line-height: 1.6; margin-bottom: 20px;\">L\u2019int\u00e9gration doit suivre une architecture modulaire : d\u00e9ploiement d\u2019un pipeline ETL (Extract, Transform, Load) utilisant des outils comme Talend, Apache NiFi ou Airflow. La phase d\u2019extraction consiste \u00e0 connecter toutes les sources via API REST, connectors SQL, ou fichiers CSV\/JSON. La transformation inclut la normalisation des formats, la d\u00e9duplication, la r\u00e9solution des incoh\u00e9rences (ex : diff\u00e9rentes unit\u00e9s de mesure), et l\u2019enrichissement. Le chargement doit alimenter une plateforme centralis\u00e9e, comme un Data Lake (Azure Data Lake, Amazon S3) ou un Data Warehouse (Snowflake, Redshift). La cl\u00e9 est d\u2019automatiser ces flux avec des orchestrateurs pour garantir une mise \u00e0 jour continue, en \u00e9vitant la surcharge ou l\u2019obsolescence des donn\u00e9es.<\/p>\n<h3 style=\"font-size: 1.2em; margin-top: 25px; margin-bottom: 10px; color: #7f8c8d;\">d) V\u00e9rification de la qualit\u00e9 et de la coh\u00e9rence des donn\u00e9es : d\u00e9duplication, nettoyage, validation<\/h3>\n<p style=\"font-size: 1em; line-height: 1.6; margin-bottom: 20px;\">La qualit\u00e9 des donn\u00e9es doit \u00eatre assur\u00e9e via des processus automatis\u00e9s : utilisation de scripts Python avec pandas pour la d\u00e9duplication, validation crois\u00e9e des champs, d\u00e9tection d\u2019anomalies et gestion des valeurs manquantes. Les r\u00e8gles incluent : v\u00e9rification de la coh\u00e9rence des adresses, d\u00e9tection de doublons par algorithmes de proximit\u00e9 (ex : fuzzy matching), et validation des formats (emails valides, num\u00e9ros de t\u00e9l\u00e9phone conformes). La cr\u00e9ation d\u2019un tableau de bord de contr\u00f4le qualit\u00e9 (QCD) permet de suivre en continu la fiabilit\u00e9 des donn\u00e9es, avec des seuils d\u2019alerte pour anomalies. La mise en \u0153uvre de tests unitaires et de scripts de validation p\u00e9riodiques est indispensable pour \u00e9viter la contamination des segments par des donn\u00e9es obsol\u00e8tes ou erron\u00e9es.<\/p>\n<h3 style=\"font-size: 1.2em; margin-top: 25px; margin-bottom: 15px; color: #34495e;\">e) Mise en place de pipelines automatis\u00e9s pour la mise \u00e0 jour continue des donn\u00e9es<\/h3>\n<p style=\"font-size: 1em; line-height: 1.6; margin-bottom: 30px;\">L\u2019automatisation passe par l\u2019utilisation d\u2019orchestrateurs comme Apache Airflow ou Prefect, configur\u00e9s pour ex\u00e9cuter des pipelines \u00e0 fr\u00e9quence r\u00e9guli\u00e8re (horaires, \u00e9v\u00e9nements). Chaque pipeline doit inclure les \u00e9tapes d\u2019extraction, de transformation, de validation, et de chargement dans la plateforme cible. Des m\u00e9canismes de rollback et de journalisation d\u00e9taill\u00e9e garantissent la r\u00e9silience. La surveillance en continu via des dashboards permet d\u2019intervenir rapidement en cas de d\u00e9faillance. Enfin, la mise en place de triggers bas\u00e9s sur des \u00e9v\u00e9nements (ex : arriv\u00e9e de nouvelles donn\u00e9es sociales) permet d\u2019adapter la segmentation en quasi temps r\u00e9el, maximisant la pertinence des campagnes hyper-cibl\u00e9es.<\/p>\n<h2 style=\"font-size: 1.5em; margin-top: 30px; margin-bottom: 15px; color: #34495e;\">3. D\u00e9finition pr\u00e9cise des segments : techniques et algorithmes avanc\u00e9s<\/h2>\n<h3 style=\"font-size: 1.2em; margin-top: 25px; margin-bottom: 10px; color: #7f8c8d;\">a) Application de clustering non supervis\u00e9 (K-means, DBSCAN, hierarchical clustering)<\/h3>\n<p style=\"font-size: 1em; line-height: 1.6; margin-bottom: 20px;\">Pour optimiser la segmentation, il est crucial d\u2019adopter des algorithmes de clustering non supervis\u00e9 adapt\u00e9s \u00e0 la nature des donn\u00e9es. La m\u00e9thode commence par une normalisation pr\u00e9cise des variables (standardisation via z-score, min-max scaling) pour garantir que chaque feature influence \u00e9quitablement. Ensuite, on choisit l\u2019algorithme en fonction du contexte :<\/p>\n<ul style=\"margin-left: 20px; list-style-type: disc; font-size: 1em;\">\n<li><strong>K-means<\/strong> : id\u00e9al pour des segments sph\u00e9riques, en utilisant la m\u00e9thode du coude pour d\u00e9terminer le nombre optimal de clusters (k). La validation doit inclure l\u2019indice de silhouette pour tester la coh\u00e9rence interne.<\/li>\n<li><strong>DBSCAN<\/strong> : adapt\u00e9 aux segments de forme arbitraire, avec la s\u00e9lection fine des param\u00e8tres epsilon et min_samples via une analyse de la courbe de voisinage.<\/li>\n<li><strong>Clustering hi\u00e9rarchique<\/strong> : utile pour explorer la hi\u00e9rarchie et identifier des sous-ensembles \u00e0 plusieurs niveaux, en utilisant la m\u00e9thode de linkage (ward, complete, average). La matrice de distance doit \u00eatre calcul\u00e9e avec des m\u00e9triques pertinentes (Euclidean, Manhattan, Cosine).<\/li>\n<\/ul>\n<p style=\"font-size: 1em; line-height: 1.6; margin-bottom: 20px;\">Le processus inclut une \u00e9tape d\u2019analyse des r\u00e9sultats par visualisation (par exemple, t-SNE ou UMAP pour r\u00e9duire la dimensionalit\u00e9) et une interpr\u00e9tation m\u00e9tier pour valider la coh\u00e9rence des segments.<\/p>\n<h3 style=\"font-size: 1.2em; margin-top: 25px; margin-bottom: 10px; color: #7f8c8d;\">b) Utilisation de mod\u00e8les supervis\u00e9s pour la classification : Random Forest, SVM, r\u00e9seaux neuronaux<\/h3>\n<p style=\"font-size: 1em; line-height: 1.6; margin-bottom: 20px;\">Lorsque des labels existent (ex : clients qualifi\u00e9s ou non), il est possible de d\u00e9ployer des mod\u00e8les supervis\u00e9s pour affiner la segmentation. La d\u00e9marche d\u00e9bute par une pr\u00e9paration rigoureuse des donn\u00e9es :<\/p>\n<ol style=\"margin-left: 20px; list-style-type: decimal; font-size: 1em;\">\n<li>Balayer les variables explicatives : encodage one-hot pour variables cat\u00e9gorielles, normalisation pour variables continues.<\/li>\n<li>Diviser le jeu de donn\u00e9es en ensembles d\u2019entra\u00eenement, validation, et test, en respectant la stratification si n\u00e9cessaire.<\/li>\n<li>Appliquer des techniques d\u2019optimisation d\u2019hyperparam\u00e8tres (Grid Search, Random Search, Bayesian Optimization) pour affiner les mod\u00e8les.<\/li>\n<\/ol>\n<p style=\"font-size: 1em; line-height: 1.6; margin-bottom: 20px;\">Les mod\u00e8les comme Random Forest offrent une interpr\u00e9tabilit\u00e9 via l\u2019analyse de l\u2019importance des features, tandis que SVM peut g\u00e9rer la s\u00e9paration non lin\u00e9aire par noyau. Les r\u00e9seaux neuronaux conviennent pour des donn\u00e9es tr\u00e8s complexes, mais n\u00e9cessitent une interpr\u00e9tation suppl\u00e9mentaire (SHAP, LIME). La validation doit inclure des courbes ROC, le score F1, et l\u2019analyse des erreurs pour \u00e9viter les biais de classification.<\/p>\n<h3 style=\"font-size: 1.2em; margin-top: 25px; margin-bottom: 10px; color: #7f8c8d;\">c) M\u00e9thodes pour la segmentation dynamique en temps r\u00e9el : streaming data, mod\u00e8les adaptatifs<\/h3>\n<p style=\"font-size: 1em; line-height: 1.6; margin-bottom: 20px;\">L\u2019adaptation en temps r\u00e9el repose sur l\u2019utilisation de mod\u00e8les en streaming, tels que l\u2019algorithme de clustering en ligne ou les mod\u00e8les de classification adaptatifs. La premi\u00e8re \u00e9tape consiste \u00e0 d\u00e9ployer des frameworks comme Apache Flink ou Spark Structured Streaming pour traiter les flux entrants instantan\u00e9ment. La segmentation doit alors s\u2019appuyer sur des mod\u00e8les en ligne, par exemple, des versions adaptatives de K-means ou des algorithmes de clustering par densit\u00e9 qui se mettent \u00e0 jour au fil des \u00e9v\u00e9nements. La mise en \u0153uvre n\u00e9cessite la gestion de fen\u00eatres temporelles (ex : tumbling, sliding) pour faire \u00e9voluer continuellement les segments. La rapidit\u00e9 d\u2019ex\u00e9cution doit \u00eatre assur\u00e9e par des pipelines optimis\u00e9s, avec surveillance en temps r\u00e9el pour d\u00e9tecter toute d\u00e9rive de segmentation.<\/p>\n<h3 style=\"font-size: 1.2em; margin-top: 25px; margin-bottom: 10px; color: #7f8c8d;\">d) \u00c9valuation de la robustesse et de la stabilit\u00e9 des segments : indices de silhouette, validation crois\u00e9e<\/h3>\n<p style=\"font-size: 1em; line-height: 1.6; margin-bottom: 20px;\">L\u2019\u00e9valuation doit combiner plusieurs m\u00e9triques : l\u2019indice de silhouette qui mesure la coh\u00e9sion et la s\u00e9paration des clusters, la stabilit\u00e9 via la validation crois\u00e9e (en subdivisant les donn\u00e9es et en testant la reproductibilit\u00e9 des segments), et la coh\u00e9rence m\u00e9tier. Par exemple, pour un segment identifi\u00e9 par clustering, on peut calculer la moyenne de silhouette, puis r\u00e9aliser une validation crois\u00e9e en utilisant la m\u00e9thode de bootstrap pour tester la stabilit\u00e9. La pr\u00e9sence d\u2019un faible indice de silhouette ou une forte variance lors des tests indique qu\u2019un ajustement de la granularit\u00e9 ou des param\u00e8tres est n\u00e9cessaire.<\/p>\n<h3 style=\"font-size: 1.2em; margin-top: 25px; margin-bottom: 15px; color: #34495e;\">e) Construction de segments multi-facteurs complexes : combinaison de crit\u00e8res d\u00e9mographiques, comportementaux<\/h3>\n","protected":false},"excerpt":{"rendered":"<p>1. Comprendre en profondeur la m\u00e9thodologie de segmentation pour des campagnes hyper-cibl\u00e9es a) Analyse des types de segmentation avanc\u00e9e : d\u00e9mographique, comportementale, psychographique, contextuelle Pour ma\u00eetriser la segmentation experte, il est essentiel de distinguer pr\u00e9cis\u00e9ment chaque type et d\u2019en comprendre les subtilit\u00e9s. La segmentation d\u00e9mographique ne se limite pas \u00e0 l\u2019\u00e2ge ou au genre ; [&hellip;]<\/p>\n","protected":false},"author":1,"featured_media":0,"comment_status":"open","ping_status":"open","sticky":false,"template":"","format":"standard","meta":{"footnotes":""},"categories":[1],"tags":[],"class_list":["post-9005","post","type-post","status-publish","format-standard","hentry","category-uncategorized"],"_links":{"self":[{"href":"https:\/\/maruticorporation.co.in\/vishwapark\/wp-json\/wp\/v2\/posts\/9005","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/maruticorporation.co.in\/vishwapark\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/maruticorporation.co.in\/vishwapark\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/maruticorporation.co.in\/vishwapark\/wp-json\/wp\/v2\/users\/1"}],"replies":[{"embeddable":true,"href":"https:\/\/maruticorporation.co.in\/vishwapark\/wp-json\/wp\/v2\/comments?post=9005"}],"version-history":[{"count":1,"href":"https:\/\/maruticorporation.co.in\/vishwapark\/wp-json\/wp\/v2\/posts\/9005\/revisions"}],"predecessor-version":[{"id":9006,"href":"https:\/\/maruticorporation.co.in\/vishwapark\/wp-json\/wp\/v2\/posts\/9005\/revisions\/9006"}],"wp:attachment":[{"href":"https:\/\/maruticorporation.co.in\/vishwapark\/wp-json\/wp\/v2\/media?parent=9005"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/maruticorporation.co.in\/vishwapark\/wp-json\/wp\/v2\/categories?post=9005"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/maruticorporation.co.in\/vishwapark\/wp-json\/wp\/v2\/tags?post=9005"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}