2023 MathorCup Mathematische Modellierungsfrage D

0 D Ideen für Fragen

(Auf CSDN teilen, sobald die Wettbewerbsfragen herauskommen)

1 Wettbewerbsinformationen

Die MathorCup University Mathematical Modeling Challenge (im Folgenden als „Wettbewerb“ bezeichnet) ist ein Fachwettbewerb für Vollzeitstudenten an gewöhnlichen Colleges und Universitäten, der von der China Society for Optimization, Overall Planning and Economic Mathematics gesponsert wird. Der Wettbewerb folgt der Idee der engen Verzahnung von Mathematik und industrieller Anwendungspraxis, so der Gründer der Gesellschaft, Professor Hua Luogeng, und will durch den an praktischen Problemen orientierten mathematischen Modellierungswettbewerb die Entdeckungs- und Entdeckungsmöglichkeiten der Gesellschaft erweitern Fördern Sie herausragende Talente, bauen Sie eine Plattform auf, um die akademische Grundausbildung von College-Studenten zu zeigen, und ermutigen Sie die Masse. Studenten nehmen aktiv an außerschulischen wissenschaftlichen und technologischen Aktivitäten teil, um ihre Fähigkeit zu verbessern, theoretisches Wissen zur Lösung praktischer sozialer Probleme einzusetzen und gleichzeitig die wissenschaftliche Forschung der Studenten zu erweitern Horizonte pflegen sie ihren kreativen Geist und Sinn für Zusammenarbeit.

Die meisten Wettbewerbsthemen stammen aus den tatsächlichen Problemen von Unternehmen, und das „Seminar zur Anwendung mathematischer Modellierung in Unternehmen“ findet jedes Jahr statt, und hochrangige Algorithmusexperten wie Alibaba, MathWorks und Didi Chuxing werden eingeladen, Berichte zu halten und teilen die Anwendung der Mathematik in praktischen Problemen.

Der Zweck dieses Wettbewerbs besteht darin, eine Plattform aufzubauen, um die fachliche Grundlage von College-Studenten zu demonstrieren, die Fähigkeit der Studenten zu verbessern, theoretisches Wissen zur Lösung sozialer Brennpunkte einzusetzen, den wissenschaftlichen Forschungshorizont von College-Studenten zu erweitern und Studenten zu ermutigen, sich aktiv an außerschulischen wissenschaftlichen und wissenschaftlichen Aktivitäten zu beteiligen technologische Aktivitäten und pflegen Innovationsgeist und Kooperationsbewusstsein. Nach mehr als zehnjähriger Entwicklung hat sich der Wettbewerb zu einem überregional einflussreichen Wettbewerb der Grundlagenwissenschaften und der angewandten Naturwissenschaften und Technik entwickelt.

2 Rennzeit

Anmeldezeit: 0:00 Uhr, 30. Dezember 2022 bis 12:00 Uhr, 12. April 2023
Wettbewerbszeit: 8:00 Uhr, 13. April 2023 bis 9:00 Uhr, 17. April 2023

3 Organisation

Sponsor: Chinesische Gesellschaft für Optimierung, Gesamtplanung und Wirtschaftsmathematik

Die China Optimal Law Coordination Law and Economic Mathematics Research Association ist eine akademische soziale Organisation unter der direkten Leitung der China Association for Science and Technology und eine nationale Gesellschaft erster Ebene. Die Gesellschaft wurde 1981 von Professor Hua Luogeng gegründet. Bisher hat sie Bewertungsmethoden und -anwendungen, Projektmanagement, Computersimulation, Gesamtplanung, Managemententscheidungen und Informationssysteme, Wirtschaftsingenieurwesen, Hochschulmanagement, Mathematikunterricht und Wirtschaft etabliert Mathematik und Wirtschaftsmathematik sowie Notfallmanagement, Graue Systemforschung, Komplexe Systemforschung und mehr als zehn Berufszweige. Der Wettbewerb wird von der China Society for Optimization, Overall Planning and Economic Mathematics gesponsert, und das Organisationskomitee der MathorCup University Mathematical Modeling Challenge ist speziell für die Organisation des Wettbewerbs verantwortlich.

4 Modellieren häufiger Problemtypen

Bevor die Wettbewerbsfragen aktualisiert wurden, fasst Herr A. die mathematischen Modelle zusammen, die häufig in der mathematischen Modellierung von MathorCup verwendet werden. Die Fragen gehören im Wesentlichen zu den folgenden vier Arten von Problemen, und die entsprechenden Lösungen werden auch von Herrn A. gegeben.

Sie sind:

  • Klassifikationsmodell
  • Optimierungsmodell
  • Vorhersagemodell
  • Bewertungsmodell

4.1 Klassifizierungsproblem

Diskriminanzanalyse:
auch als „Diskriminanzmethode“ bekannt, ist ein multivariates statistisches Analyseverfahren zur Unterscheidung der Art eines Forschungsobjekts nach verschiedenen Eigenwerten eines bestimmten Forschungsobjekts unter der Bedingung einer bestimmten Klassifikation.
Das Grundprinzip besteht darin, nach bestimmten Diskriminanzkriterien eine oder mehrere Diskriminanzfunktionen aufzustellen, aus einer großen Datenmenge des Untersuchungsobjekts die unbestimmten Koeffizienten in der Diskriminanzfunktion zu ermitteln und daraus den Diskriminanzindex zu berechnen bestimmt, zu welcher Kategorie eine bestimmte Probe gehört. Wenn neue Probendaten erhalten werden, ist es notwendig zu bestimmen, zu welchem ​​der bekannten Typen die Probe gehört.Diese Art von Problem gehört zum Problem der Diskriminanzanalyse.

Clusteranalyse :
Clusteranalyse oder Clustering besteht darin, ähnliche Objekte durch statische Klassifizierung in verschiedene Gruppen oder mehrere Teilmengen zu unterteilen, sodass die Mitgliedsobjekte in derselben Teilmenge ähnliche Attribute haben, einschließlich kürzerer räumlicher Entfernungen im Koordinatensystem usw.
Die Clusteranalyse selbst ist kein spezifischer Algorithmus, sondern eine allgemeine zu lösende Aufgabe. Dies kann mit verschiedenen Algorithmen erreicht werden, die sich stark in Bezug darauf unterscheiden, was Cluster ausmacht und wie man sie effizient findet.

Klassifizierung von neuronalen Netzwerken:
Das neuronale BP-Netzwerk ist ein Lernalgorithmus für neuronale Netzwerke. Es ist ein hierarchisches neuronales Netzwerk, das aus einer Eingabeschicht, einer Zwischenschicht und einer Ausgabeschicht besteht, und die Zwischenschicht kann auf mehrere Schichten erweitert werden. Neuronales Netzwerk RBF (Radial Basis Function): Das neuronale Netzwerk der radialen Basisfunktion (RBF-Radial Basis Function) ist ein dreischichtiges Feed-Forward-Netzwerk mit einer einzigen verborgenen Schicht. Es simuliert die neuronale Netzwerkstruktur im menschlichen Gehirn mit lokal angepassten, sich gegenseitig überlagernden rezeptiven Feldern. Neuronales Perzeptron-Netzwerk: Es ist ein neuronales Netzwerk mit einer einzigen Schicht von Rechenneuronen, und die Übertragungsfunktion des Netzwerks ist eine lineare Schwellenwerteinheit. Es wird hauptsächlich verwendet, um die Wahrnehmungseigenschaften des menschlichen Gehirns zu simulieren. Lineares neuronales Netzwerk: Es ist ein relativ einfaches neuronales Netzwerk, das aus einem oder mehreren linearen Neuronen besteht. Als Übertragungsfunktion wird eine lineare Funktion verwendet, sodass der Ausgang ein beliebiger Wert sein kann. Selbstorganisierendes neuronales Netzwerk: Selbstorganisierendes neuronales Netzwerk umfasst selbstorganisierendes Wettbewerbsnetzwerk, selbstorganisierendes Feature-Map-Netzwerk, lernende Vektorquantisierung und andere Netzwerkstrukturformen. K-Nächster-Nachbar-Algorithmus: Der K-Nächste-Nachbar-Klassifizierungsalgorithmus ist theoretisch eine relativ ausgereifte Methode und einer der einfachsten Algorithmen für maschinelles Lernen.

4.2 Optimierungsproblem

Lineare Programmierung:
Die mathematische Theorie und Methode zur Untersuchung des Extremwertproblems der linearen Zielfunktion unter linearen Nebenbedingungen. Englische Abkürzung LP. Es ist ein wichtiger Zweig des Operations Research, der in Produktionsplanung, Logistik und Transport, Ressourcenallokation, Finanzinvestitionen und anderen Bereichen weit verbreitet ist. Modellierungsmethode: Listen Sie die Einschränkungen und die Zielfunktion auf; zeichnen Sie den zulässigen Bereich, der durch die Einschränkungen dargestellt wird; finden Sie die optimale Lösung und den optimalen Wert der Zielfunktion in dem zulässigen Bereich.

Integer-Programmierung:
Die Variablen in der Programmierung (alle oder einige) sind auf Integer beschränkt, bekannt als Integer-Programmierung. Wenn die Variablen in einem linearen Modell auf ganze Zahlen beschränkt sind, spricht man von ganzzahliger linearer Programmierung. Die derzeit populären Methoden zur Lösung ganzzahliger Programmierung sind oft nur auf ganzzahlige lineare Programmierung anwendbar. Eine Klasse der mathematischen Programmierung, die erfordert, dass alle oder einige der Variablen in der Lösung eines Problems ganze Zahlen sind. Von der Zusammensetzung der Constraints kann man sie in lineare, quadratische und nichtlineare ganzzahlige Programmierung unterteilen.

Nichtlineare Programmierung:
Die nichtlineare Programmierung ist eine mathematische Programmierung mit nichtlinearen Nebenbedingungen oder Zielfunktionen und ein wichtiger Zweig des Operations Research. Die nichtlineare Programmierung untersucht das Extremumproblem einer n-stelligen reellen Funktion unter einer Reihe von Gleichheits- oder Ungleichheitsbeschränkungen, und mindestens eine der Zielfunktion und der Beschränkungen ist eine nichtlineare Funktion einer unbekannten Größe. Der Fall, in dem sowohl die Zielfunktion als auch die Nebenbedingungen lineare Funktionen sind, wird als lineare Programmierung bezeichnet.

Dynamische Programmierung:
einschließlich Rucksackproblemen, Produktions- und Verwaltungsproblemen, Kapitalverwaltungsproblemen, Ressourcenzuweisungsproblemen, Problemen des kürzesten Weges und komplexen Systemzuverlässigkeitsproblemen usw.
Dynamische Programmierung wird hauptsächlich verwendet, um das Optimierungsproblem des dynamischen Prozesses zu lösen, der nach Zeit in Stufen unterteilt ist, aber einige statische Programmierungen (wie lineare Programmierung und nichtlineare Programmierung), die nichts mit Zeit zu tun haben, können als mehrstufige Entscheidungsprozesse betrachtet werden. Herstellungsprozess, solange der Zeitfaktor künstlich eingeführt wird, kann auch bequem durch dynamische Programmiermethode gelöst werden.

Multi-Objective Programming:
Multi-Objective Programming ist ein Zweig der mathematischen Programmierung. Untersuchen Sie die Optimierung von mehr als einer Zielfunktion über einen bestimmten Bereich. Jedes Programmierproblem mit mehreren Zielen besteht aus zwei grundlegenden Teilen:
(1) mehr als zwei Zielfunktionen,
(2) mehreren Nebenbedingungen. Es gibt n Entscheidungsvariablen, k Zielfunktionen und m Nebenbedingungsgleichungen, dann gilt:
Z = F(X) ist ein k-dimensionaler Funktionsvektor, Φ(X) ist ein m-dimensionaler Funktionsvektor, G ist eine m-dimensionale Konstante Vektor;

4.3 Vorhersageproblem

Regression Fit Forecast
Fit Forecast ist der Prozess der Erstellung eines Modells zur Annäherung an die tatsächliche Datensequenz, das für Entwicklungssysteme geeignet ist. Beim Bau eines Modells ist es in der Regel notwendig, einen Zeitursprung und eine Zeiteinheit mit eindeutiger Bedeutung anzugeben. Außerdem sollte das Modell immer noch sinnvoll sein, da t gegen unendlich geht. Die Bedeutung, die Anpassungsvorhersage als eine Art Systemforschung aufzufassen, besteht darin, ihre bloße "Symbol"-Natur zu betonen. Die Erstellung eines Vorhersagemodells sollte so weit wie möglich dem tatsächlichen System entsprechen, was das Prinzip der Anpassung ist. Der Anpassungsgrad kann anhand der kleinsten Quadrate, der maximalen Wahrscheinlichkeit und der minimalen absoluten Abweichung gemessen werden.

Grey Forecast
Grey Forecast ist die auf dem grauen System erstellte Prognose. Es ist eine Methode zur Vorhersage von Systemen mit unsicheren Faktoren. Graue Vorhersage besteht darin, den Grad der Differenz zwischen den Entwicklungstrends von Systemfaktoren zu identifizieren, dh Korrelationsanalysen durchzuführen und die Originaldaten zu generieren und zu verarbeiten, um das Gesetz der Systemänderungen zu finden, eine Datensequenz mit starker Regelmäßigkeit zu generieren und dann entsprechende Differentialgleichungsmodelle aufstellen, um den zukünftigen Entwicklungstrend der Dinge vorherzusagen. Es verwendet eine Reihe von quantitativen Werten, die die in gleichen Zeitintervallen beobachteten Eigenschaften des vorhergesagten Objekts widerspiegeln, um ein graues Vorhersagemodell zu erstellen, um die charakteristische Größe zu einem bestimmten Zeitpunkt in der Zukunft oder die Zeit bis zum Erreichen einer bestimmten charakteristischen Größe vorherzusagen .
Markov-Prognose: Es handelt sich um eine Methode, mit der die Versorgung mit internen Humanressourcen in einer Organisation prognostiziert werden kann, deren Grundidee darin besteht, das Gesetz der Personalveränderungen in der Vergangenheit herauszufinden, um auf die Entwicklung zukünftiger Personalveränderungen zu spekulieren Die Umwandlungsmatrix ist eigentlich die Übergangswahrscheinlichkeitsmatrix, die die Gesamtform des Mitarbeiterzuflusses, -abflusses und der internen Mobilität in der Organisation beschreibt, kann als Grundlage für die Vorhersage des internen Arbeitskräfteangebots verwendet werden.

Vorhersage des BP-Neuronalnetzwerks
Das BP-Netzwerk (Back-ProPagation Network), auch als Backpropagation-Neuralnetzwerk bekannt, korrigiert kontinuierlich die Netzwerkgewichte und Schwellenwerte durch das Training von Beispieldaten, sodass die Fehlerfunktion entlang der Richtung des negativen Gradienten abnimmt und sich dem gewünschten Ausgang annähert. Es ist ein weit verbreitetes neuronales Netzwerkmodell, das hauptsächlich zur Funktionsnäherung, Modellerkennung und -klassifizierung, Datenkomprimierung und Zeitreihenvorhersage verwendet wird.

Support Vector Machine-Methode
Support Vector Machine (SVM), auch bekannt als Support Vector Network [1], ist ein überwachtes Lernmodell und die zugehörigen Lernalgorithmen, die Klassifikations- und Regressionsanalysen zur Analyse von Daten verwenden. Bei einem gegebenen Satz von Trainingsbeispielen wird jedes Trainingsbeispiel als zu der einen oder anderen der beiden Kategorien gehörend gekennzeichnet. Der Trainingsalgorithmus einer Support-Vektor-Maschine (SVM) erstellt ein Modell, das neue Stichproben einer von zwei Klassen zuweist, wodurch es zu einem nicht probabilistischen binären linearen Klassifikator wird (obwohl es in der probabilistischen Klassifizierungseinstellung Korrekturen wie Pratos solche Methoden gibt, die Unterstützung verwenden Vektormaschinen). Das Support-Vektor-Maschinenmodell stellt Proben als Punkte in einer Karte im Raum dar, damit Proben mit einer einzigen Klasse möglichst klar getrennt werden können. Alle diese neuen Proben werden demselben Raum zugeordnet, und es ist möglich, vorherzusagen, zu welcher Klasse sie gehören, basierend auf der Seite des Intervalls, auf die sie fallen.

4.4 Bewertungsfragen

Der analytische Hierarchieprozess
bezieht sich darauf, ein komplexes Entscheidungsfindungsproblem mit mehreren Zielen als System zu nehmen, das Ziel in mehrere Ziele oder Kriterien zu zerlegen und es dann in mehrere Ebenen mit mehreren Indikatoren (oder Kriterien, Einschränkungen) zu zerlegen. und Gesamtranking als systematische Methode für objektive (Multi-Indikatoren), Multi-Schema-Optimierungsentscheidungen.

Die Superior-and-Inferior-Lösungsdistanzmethode,
auch Ideallösungsmethode genannt, ist eine effektive Multi-Index-Bewertungsmethode. Diese Methode konstruiert die positive ideale Lösung und die negative ideale Lösung des Bewertungsproblems, dh die maximalen und minimalen Werte jedes Index, und berechnet die relative Nähe jedes Schemas zum idealen Schema, dh die Entfernung nahe dazu die positive Ideallösung und weit entfernt von der negativen Ideallösung Grad, die Schemata zu sortieren, um das optimale Schema auszuwählen.

Die umfassende Fuzzy-Bewertungsmethode
ist eine umfassende Bewertungsmethode, die auf Fuzzy-Mathematik basiert. Das umfassende Bewertungsverfahren wandelt eine qualitative Bewertung in eine quantitative Bewertung gemäß der Zugehörigkeitsgradtheorie der Fuzzy-Mathematik um, das heißt, es verwendet die Fuzzy-Mathematik, um eine Gesamtbewertung von Dingen oder Objekten vorzunehmen, die durch verschiedene Faktoren eingeschränkt sind. Es zeichnet sich durch klare Ergebnisse und ein starkes System aus, kann unscharfe und schwer quantifizierbare Probleme gut lösen und eignet sich zur Lösung verschiedener nicht deterministischer Probleme.

Graues relationales Analyseverfahren (graues umfassendes Bewertungsverfahren)
für die Faktoren zwischen zwei Systemen, das Maß für die Größe der Korrelation mit der Zeit oder verschiedenen Objekten wird Korrelationsgrad genannt. Wenn im Prozess der Systementwicklung die Änderungstrends der beiden Faktoren konsistent sind, dh der Grad der synchronen Änderung hoch ist, kann gesagt werden, dass der Grad der Korrelation zwischen den beiden Faktoren hoch ist, andernfalls ist er niedrig . Daher basiert das graue relationale Analyseverfahren auf dem Ähnlichkeits- oder Unterschiedsgrad im Entwicklungstrend zwischen Faktoren, d. h. dem "grauen relationalen Grad", als Verfahren zur Messung des Korrelationsgrades zwischen Faktoren.
Kanonische Korrelationsanalysemethode: Es ist ein Verständnis der Kreuzkovarianzmatrix und eine multivariate statistische Analysemethode, die die Korrelationsbeziehung zwischen umfassenden Variablenpaaren verwendet, um die Gesamtkorrelation zwischen zwei Gruppen von Indikatoren widerzuspiegeln. Sein Grundprinzip ist: Um die Korrelation zwischen den beiden Gruppen von Indikatoren als Ganzes zu erfassen, werden zwei repräsentative umfassende Variablen U1 und V1 jeweils aus den beiden Gruppen von Variablen extrahiert (bzw. die linearen Variablen jeder Variablen in den beiden Variablen Gruppenkombination), wobei die Korrelation zwischen diesen beiden umfassenden Variablen verwendet wird, um die Gesamtkorrelation zwischen den beiden Indikatorensätzen widerzuspiegeln.

Die Hauptkomponentenanalyse (Dimensionsreduktion)
ist eine statistische Methode. Durch orthogonale Transformation wird eine Gruppe von Variablen, die korreliert werden können, in eine Gruppe von linear unkorrelierten Variablen umgewandelt, und die umgewandelte Gruppe von Variablen wird als Hauptkomponente bezeichnet. Bei der Verwendung statistischer Analysemethoden zur Untersuchung multivariabler Themen erhöhen zu viele Variablen die Komplexität des Themas. Die Menschen hoffen natürlich, dass die Anzahl der Variablen geringer wird und mehr Informationen erhalten werden. In vielen Fällen besteht eine gewisse Korrelation zwischen Variablen.Wenn eine gewisse Korrelation zwischen zwei Variablen besteht, kann erklärt werden, dass die beiden Variablen eine gewisse Überschneidung in den Informationen zu diesem Thema widerspiegeln. Die Hauptkomponentenanalyse besteht darin, redundante Variablen (nahe verwandte Variablen) für alle ursprünglich vorgeschlagenen Variablen zu löschen und so wenig neue Variablen wie möglich zu erstellen, sodass diese neuen Variablen paarweise irrelevant sind und diese neuen Variablen den Informationsaspekt des Subjekts widerspiegeln sollten so original wie möglich gehalten werden. Der Versuch, die ursprünglichen Variablen zu einer neuen Gruppe mehrerer umfassender Variablen zu rekombinieren, die füreinander irrelevant sind, und gleichzeitig, je nach tatsächlichem Bedarf, einige weniger umfassende Variablen herausgenommen werden können, um so viele Informationen wie möglich über die zu reflektieren Die statistische Methode heißt Hauptkomponentenanalyse oder Hauptkomponentenanalyse ist auch ein in der Mathematik verwendetes Verfahren zur Dimensionsreduktion.

Faktoranalyse (Dimensionalitätsreduktion)
Die Faktoranalyse bezieht sich auf das Studium statistischer Techniken zum Extrahieren gemeinsamer Faktoren aus variablen Gruppen. Es wurde zuerst vom britischen Psychologen CE Spearman vorgeschlagen. Er fand heraus, dass es eine gewisse Korrelation zwischen den Noten von Schülern in verschiedenen Fächern gibt.Schüler mit guten Noten in einem Fach haben oft bessere Noten in anderen Fächern, also spekuliert er, ob es einige mögliche gemeinsame Faktoren oder einige allgemeine Intelligenzbedingungen gibt die schulischen Leistungen der Schüler. Die Faktorenanalyse kann unter vielen Variablen versteckte repräsentative Faktoren finden. Die Klassifizierung von Variablen gleicher Art in einen Faktor kann die Anzahl der Variablen reduzieren und die Hypothese der Beziehung zwischen Variablen testen.

Die umfassende Bewertungsmethode für neuronale Netzwerke von BP
ist ein mehrschichtiges Feed-Forward-Netzwerk, das gemäß dem Error-Back-Propagation-Algorithmus trainiert wurde, und es ist eines der am weitesten verbreiteten neuronalen Netzwerkmodelle. Das BP-Netzwerk kann eine große Anzahl von Eingabe-Ausgabe-Musterabbildungsbeziehungen lernen und speichern, ohne die mathematischen Gleichungen, die die Abbildungsbeziehung beschreiben, im Voraus offenzulegen. Seine Lernregel besteht darin, die Methode des steilsten Abstiegs zu verwenden, um die Gewichte und Schwellenwerte des Netzwerks durch Backpropagation kontinuierlich anzupassen, um die Summe der quadrierten Fehler des Netzwerks zu minimieren. Die topologische Struktur des neuronalen BP-Netzwerkmodells umfasst eine Eingabeschicht (Eingabe), eine verborgene Schicht (Versteckschicht) und eine Ausgabeschicht (Ausgabeschicht).

Guess you like

Origin blog.csdn.net/dc_sinor/article/details/129775861