Méthode d'apprentissage automatique du langage R dans le domaine de l'économie écologique

Ces dernières années, des percées ont été réalisées dans le domaine de l'intelligence artificielle, qui ont eu un impact majeur sur divers domaines de l'économie et de la société. L'apprentissage automatique, qui combine les statistiques, la science des données et l'informatique, est l'une des principales directions de l'intelligence artificielle. intelligence, et il se développe également rapidement Intégrer dans la recherche économétrique. En apparence, l'apprentissage automatique utilise généralement des mégadonnées, tandis que l'économétrie utilise généralement des échantillons plus petits, mais cette distinction devient de plus en plus floue et l'apprentissage automatique est devenu de plus en plus important dans le domaine de l'économie, en particulier à l'intersection de l'économie et d'autres disciplines. Le langage R est le langage informatique principal utilisé pour la modélisation statistique. Il est très pratique pour l'apprentissage automatique et la courbe d'apprentissage est plus fluide que Python, c'est donc l'un des premiers choix pour l'apprentissage automatique.

Dans ce contenu, nous partirons des besoins réels de rédaction de la thèse, et présenterons d'abord brièvement les théories de base et les méthodes de recherche en économie, afin que vous puissiez comprendre la méthode de sélection des sujets et le cadre de rédaction de la thèse. Concentrez-vous ensuite sur la collecte et le nettoyage des données, l'évaluation complète de la modélisation, l'analyse et la visualisation des données, l'effet spatial des données, l'inférence causale, etc., afin que vous puissiez maîtriser la technologie d'utilisation du langage R pour la recherche économique à la vitesse la plus rapide. Dans le même temps, il présentera également les logiciels auxiliaires souvent utilisés dans la rédaction de thèses, afin de réduire autant que possible la difficulté de rédaction de thèses.

Base théorique et introduction au logiciel

1.1 Principes de base de l'économie

contenu principal:

Paradigme de pensée économique, allocation des ressources, efficacité et équité (dans le domaine de l'économie classique).

Gregory Mankiw, les dix principes de l'économie en bref

Par exemple, le principe de l’avantage comparatif de David Ricardo.

Par exemple, les opportunités et les coûts. Courbe de prix positive en forme de U, MC (coût marginal) ACT (coût total moyen)

Les gens rationnels supposent que la régulation du marché peut être la solution optimale.

L'effet d'ancrage dans un comportement bizarre de Dan Ariely

1.2 L'idée de base de la probabilité et des statistiques

1.2.1 Concepts courants en probabilités et statistiques

La naissance de la probabilité, problème du thé au lait.

distribution normale.

 

 

Intervalle de confiance

 

Valeur P

1.2.2 Évaluation (évaluation à indice unique et évaluation à indice composite)

Évaluation d'un indice unique : comme le PIB

Évaluation de l'indice composite

Évaluation du système d'indexation

 

1.2.3 Inférence causale

Génération de concepts : l'inférence causale est le processus de description de la relation causale en fonction des conditions dans lesquelles un certain résultat se produit. Le moyen le plus efficace de déduire la relation causale est de mener des essais contrôlés randomisés, mais cette méthode prend du temps, est coûteuse et et inexplicables et caractérisent les différences individuelles ; par conséquent, l'inférence causale à partir de données d'observation est prise en compte. Ces cadres incluent des cadres de résultats latents et des modèles causals structurels. Les méthodes d'inférence causale des modèles causals structurels sont examinées ci-dessous.

 

 

Niveau de preuve, cas unique, cas multiples, essais contrôlés randomisés, analyse mécanisme par mécanisme fondée sur des preuves

1.3 Apprentissage automatique pour l'évaluation et l'inférence causale (Introduction aux algorithmes)

1.3.1 KNN et Kmeans

La méthode KNN (K-Nearest Neighbor), la méthode du K-plus proche voisin, a été proposée pour la première fois par Cover et Hart en 1968. Il s'agit d'une méthode relativement mature en théorie et l'un des algorithmes d'apprentissage automatique les plus simples. L'idée de cette méthode est très simple et intuitive : si la plupart des K échantillons les plus similaires dans l'espace des caractéristiques (c'est-à-dire les voisins les plus proches dans l'espace des caractéristiques) d'un échantillon appartiennent à une certaine catégorie, alors l'échantillon également appartient à cette catégorie. Dans la décision de classement, cette méthode détermine uniquement la catégorie de l'échantillon à diviser en fonction de la catégorie du ou des échantillons les plus proches.

Ksignifie

 

 

1.3.2 Delphi et AHP

Delphi est la traduction chinoise de Delphi. Dans les années 1950, la Rand Corporation des États-Unis a coopéré avec Douglas Corporation pour développer une méthode efficace et fiable de collecte d'opinions d'experts, nommée d'après « Delphi ». Après cela, cette méthode a été largement utilisée dans les affaires, l'armée, l'éducation, les soins de santé et d'autres domaines. L'application de la méthode Delphi en médecine a commencé avec la recherche sur le travail infirmier, et elle a montré sa supériorité et son applicabilité dans le processus d'utilisation et a été favorisée par de plus en plus de chercheurs.

AHP (Analytic Hierarchy Process) est une méthode pratique de prise de décision multi-programmes ou multi-objectifs proposée par le chercheur opérationnel américain, le professeur TL Saaty dans les années 1970. Il s'agit d'une méthode d'analyse décisionnelle qui combine analyse qualitative et quantitative . Il est souvent appliqué à des problèmes de prise de décision complexes non structurés multi-objectifs, multicritères, multi-éléments et multi-niveaux , en particulier aux problèmes de prise de décision stratégique, et a un très large éventail de possibilités pratiques.

 

1.3.3 Méthode du poids d'entropie

Méthode de pondération TOPSIS-Entropie

La méthode du poids d'entropie est une méthode permettant de calculer le poids de chaque indice en fonction de la taille de l'entropie des informations sur les données, qui peut évaluer de manière exhaustive les cibles multi-indices. La méthode TOPSIS peut optimiser davantage les résultats de la méthode du poids d'entropie, rendant les résultats d'évaluation plus objectifs et raisonnables [23~25].

 

 

1.3.4 Algorithme de forêt aléatoire

Il existe une grande catégorie d'apprentissage automatique appelée Ensemble Learning. L'idée de base d'Ensemble Learning est de combiner plusieurs classificateurs pour obtenir un classificateur intégré avec un meilleur effet de prédiction. On peut dire que l'algorithme intégré a vérifié d'une part un vieux dicton chinois : trois cordonniers valent mieux que Zhuge Liang.

 

1.3.5 Réseau neuronal

L'apprentissage du réseau neuronal est divisé en deux étapes : l'une est l'étape de rétroaction multicouche, qui calcule simultanément l'entrée et la sortie réelles de chaque nœud de couche à partir de la couche d'entrée ; la seconde est l'étape de correction inverse, c'est-à-dire selon l'erreur de sortie, les poids de connexion sont corrigés de manière inverse en cours de route, pour réduire l'erreur [27] .

 

1.4 Introduction au logiciel commun

Excel, R, Stata, Photoshop, Arcgis, SPSS, Geoda, Python, Notexpress, Endnote

 Sujet 2    Acquisition et arrangement de données

2.1 Introduction aux types de données

données quantitatives, données catégorielles,

Données transversales, données de séries chronologiques, données de panel

2.2 Acquisition de données

Documents, Bureau of Statistics, Annuaire, sites Web connexes, achat

https://www.ceads.net.cn/

Annuaire statistique

Annotation de thèse

2.3 Collecte des données

Conversion de format commun, remplissage des valeurs manquantes

Méthodes d'évaluation couramment utilisées et enseignement détaillé des logiciels associés (détails du cas)

3.1 Calcul des émissions de carbone agricoles

3.2 Calcul des émissions de carbone liées à la consommation d'énergie

3.3 Méthode d'évaluation globale

La saisie de la formule et le fonctionnement réel de la méthode du poids d'entropie

https://gongshi.wang/

3.4 Analyse des données et visualisation des données

Introduction aux méthodes courantes de visualisation de données

Boîtes à moustaches, histogrammes, graphiques linéaires, graphiques géographiques, etc.

Trois lois de la géographie et analyse de l'autocorrélation spatiale

3.5 Modélisation de régression forestière aléatoire

3.5.1 Construction du modèle et optimisation des paramètres associés

3.5.2 Évaluation des effets du modèle

3.5.3 Analyse des résultats du modèle

3.5.4 Facteurs déterminants et mécanisme Analyse du mécanisme (analyse d’attribution, mécanisme déterminant)

3.6 Modélisation de régression de réseau neuronal

Le contenu est le même que ci-dessus.

Par rapport à d'autres modèles

Points clés de la rédaction et explication des cas

4.1 Points généraux de rédaction

4.1.1 Un bon départ représente la moitié de la bataille (Introduction)

La source du sujet de l'article

4.1.2 Méthode de rédaction de la revue de littérature

4.1.3 Sélection des méthodes de recherche et édition des formules

4.1.4 Analyse et visualisation des données (Analyse)

4.1.5 Deux façons d'écrire pour la discussion (Discussion)

4.1.6 Rédaction de la conclusion et du résumé

4.1.7 Construction de la mentalité, sélection et soumission des revues

4.2 Explication du cas

4.2.1 Introduction à deux types courants d'articles

Introduction aux types d'articles expérimentaux

Articles d'introduction aux modèles informatiques

4.2.2 Cas

Caractéristiques spatio-temporelles et prévision des tendances des émissions de carbone agricoles dans la province du Shanxi de 2000 à 2020

Évaluation des émissions de carbone agricoles du Xinjiang et analyse des facteurs déterminants basée sur un algorithme d'apprentissage automatique

Facteurs déterminants et effets de découplage des émissions de carbone dans le nord-ouest de la Chine

Différences régionales et évolution dynamique de la répartition du développement agricole de haute qualité en Chine

 ● Comment utiliser l'apprentissage automatique Python pour résoudre les problèmes de simulation spatiale et de prédiction temporelle et l'analyse de cas classique

Application technologique d'exploration de données Python et de pratique d'apprentissage automatique

Traitement des données de télédétection multispectrale, classification d'images, évaluation quantitative et méthodes d'apprentissage automatique basées sur Python

Apprentissage automatique basé sur le langage R moderne [Tidyverse, Tidymodel]

L'ensemble du processus de langage Meta in R, incertitude, régression, analyse et dessin de diagnostic, et Meta machine learning

 

Je suppose que tu aimes

Origine blog.csdn.net/weixin_46433038/article/details/132406286
conseillé
Classement