[Datensätze, die häufig in Bildverarbeitungsalgorithmen verwendet werden] Sortieren des zweiten Aufzählungspunkts

Im Vergleich zu dem im vorherigen Aufzählungspunkt aufgeführten Datensatz ( [Gemeinsame Datensätze für Bildalgorithmen] Organisieren Sie den ersten Aufzählungspunkt _izzz_iz's Blog-CSDN-Blog ) ist der aufgeführte Datensatz stärker auf das Training (Training) von Algorithmen ausgerichtet und die Datensatzkapazität ist größer .

Inhaltsverzeichnis

BSDS500

ROT

DIV2K

SID

Urban 100

Kodak

Sonne

COCO


BSDS500

Einführung in den Datensatz:

Der BSDS500-Datensatz ist ein vom Berkeley Vision and Learning Center (BVLC) entwickelter Datensatz, der häufig zum Training und zur Bewertung von Bildwiederherstellungsalgorithmen verwendet wird. Es enthält 500 Bilder mit verschiedenen Bildverschlechterungen wie Rauschen, Unschärfe, verlustfreier Komprimierung usw. Diese Bilder stammen aus verschiedenen Bildtypen, darunter Städte, Gebäude, Landschaften, Natur und mehr. Diese Bilder werden alle mit hoher Komplexität und Authentizität aus der realen Welt gesammelt. Der BSDS500-Datensatz wird häufig zum Trainieren und Bewerten von Bildwiederherstellungsalgorithmen wie Rauschunterdrückung, Unschärfe und Superauflösung verwendet und ist in Wissenschaft und Industrie weit verbreitet.

Datensatzquelle

Verknüpfung:

UC Berkeley Computer Vision Group – Konturerkennung und Bildsegmentierung – Ressourcen

Produzent: Berkeley Vision and Learning Center (BVLC)

Originalartikel: „Eine Datenbank menschlicher segmentierter natürlicher Bilder und ihre Anwendung zur Bewertung von Segmentierungsalgorithmen und zur Messung ökologischer Statistiken“ von Martin J. Fowlkes, David Martin und Jitendra Malik, International Journal of Computer Vision, 2001

ROT

Einführung in den Datensatz:

Der REDS-Datensatz ist ein Datensatz zum Training von Super-Resolution-Algorithmen, der von den Organisatoren der NTIRE 2019 Global Super-Resolution Challenge entwickelt wurde. Der Datensatz enthält insgesamt 400 Videosequenzen mit insgesamt etwa 120.000 Bildern, die unterschiedliche Bildtypen wie Städte, Gebäude, Landschaften, Natur usw. umfassen. Diese Bilder stammen alle aus der realen Welt und zeichnen sich durch hohe Komplexität und Authentizität aus.

Jede Videosequenz im REDS-Datensatz enthält Bilder mit drei verschiedenen Auflösungen, nämlich das ursprüngliche Bild mit hoher Auflösung, das Bild mit niedriger Auflösung und das Bild mit mittlerer Auflösung. Eine solche Datenorganisation kann verwendet werden, um Superauflösungsalgorithmen zu trainieren und ihre Leistung bei verschiedenen Auflösungen zu bewerten.

Datensatzquelle

Verknüpfung:

NTIRE2019: Workshop „Neue Trends in der Bildwiederherstellung und -verbesserung“ und Herausforderungen zur Bild- und Videowiederherstellung und -verbesserung

Produzent: Organisator der NTIRE 2019 Global Super Resolution Challenge

Originalartikel: „NTIRE 2019 Challenge on Video Super-Resolution: Dataset and Study“ von Toni Heittola, Annamaria Mesaros und Toni Korpipaa et al. Veröffentlicht in CVPR2019 im Jahr 2019

DIV2K

Dieser Datensatz wird zum Training und zur Bewertung von Superauflösungsalgorithmen verwendet und enthält 2000 hochauflösende Bilder.

Einführung in den Datensatz:

Der DIV2K-Datensatz ist ein Datensatz, der häufig zum Training und zur Bewertung von Superauflösungsalgorithmen verwendet wird. Es enthält 2000 hochauflösende Bilder aus verschiedenen Bildtypen wie Städten, Gebäuden, Landschaften, Natur und mehr. Diese Bilder stammen alle aus der realen Welt und zeichnen sich durch hohe Komplexität und Authentizität aus. Davon werden 800 Bilder für das Training und die restlichen 1200 Bilder für Tests verwendet.

Der DIV2K-Datensatz bietet auch eine Methode zur Erzeugung von Bildern mit niedriger Auflösung, mit der problemlos Bilder unterschiedlicher Auflösung zum Trainieren und Bewerten von Superauflösungsalgorithmen generiert werden können.

Datensatzquelle

Link: DIV2K-Datensatz

Produktionseinrichtung: gemeinsam entwickelt von mehreren Forschungseinrichtungen und akademischen Teams (der Universität Leuven in Belgien, der ETH Zürich in der Schweiz und der Universität Brüssel in Belgien)

Originalartikel: „CVPR 2017 – NTIRE: Neue Trends in der Bildwiederherstellung und -verbesserung, Workshop und Herausforderungen“ in CVPR 2017 von Christian Timofte, Eirikur Agustsson, Radu Timofte, Luc Van Gool.

SID

Einführung in den Datensatz:

Der SIDD-Datensatz ist ein Datensatz, der häufig zum Trainieren und Bewerten von Bildrauschunterdrückungs- und Rauschunterdrückungsalgorithmen verwendet wird. Es enthält 800 hochauflösende Bilder verschiedener Bildtypen wie Städte, Gebäude, Landschaften, Natur und mehr. Diese Bilder stammen alle aus der realen Welt und zeichnen sich durch hohe Komplexität und Authentizität aus. 400 Bilder werden zum Training und die restlichen 400 Bilder zum Testen verwendet.

Der SIDD-Datensatz bietet auch verschiedene Arten von Rauschen, wie z. B. Gaußsches Rauschen, Salz- und Pfefferrauschen usw., sowie unterschiedliche Rauschverhältnisse, mit denen sich die Leistung von Bildrauschunterdrückungs- und Rauschunterdrückungsalgorithmen leicht bewerten lässt.

Datensatzquelle:

Verknüpfung:

UC Berkeley Computer Vision Group – Konturerkennung und Bildsegmentierung – Ressourcen

Produktionsinstitution: Computer Vision Research Team an der UC Berkeley

Originalartikel: „A Benchmark Dataset and Evaluation Methodology for Image Denoising“ von K. Zhang, W. Zuo, Y. Chen, D. Meng, L. Zhang.

Beispielbeispiel:

Urban 100

Einführung in den Datensatz:

Der Urban 100-Datensatz ist ein hochauflösender Bilddatensatz für städtische Umgebungen. Es enthält 100 hochauflösende Bilder aus städtischen Umgebungen wie Gebäuden, Straßen usw. Diese Bilder stammen alle aus der realen Welt und zeichnen sich durch hohe Komplexität und Authentizität aus. Jedes Bild im Urban 100-Datensatz wird von Fachleuten manuell mit Anmerkungen versehen, und es werden Bilder mit unterschiedlichen Auflösungen bereitgestellt, beispielsweise Bilder mit einer viermal oder achtmal niedrigeren Auflösung als das Originalbild. Eine solche Datenorganisation kann zum Trainieren und Bewerten von hochauflösenden Algorithmen verwendet werden.

Datensatzquelle:

Link: https://github.com/Tong-Zhang/Urban-100

Produktionseinrichtung: Universität Leuven, Belgien, und Institut für Automatisierung der Chinesischen Akademie der Wissenschaften gemeinsam entwickelt

Originalartikel: „Urban 100: A New Dataset and Benchmark for Urban Image Super-Resolution“ von Tong Zhang, Shuhang Gu, Radu Timofte.

Kodak

Einführung in den Datensatz:

Der Datensatz enthält 24 hochauflösende Bilder, die jeweils mit einer 2x oder 3x geringeren Auflösung im Vergleich zum Originalbild versehen sind. Eine solche Datenorganisation kann zum Trainieren von Bild-Inpainting-Algorithmen verwendet werden, wobei der Algorithmus ein Bild mit niedriger Auflösung als Eingabe verwendet und ein Bild mit hoher Auflösung ausgibt. Nach dem Training kann der Algorithmus auf neue Bilder ausgeführt werden und hochauflösende Bilder erzeugen.

Da der Kodak-Datensatz in praktischen Anwendungen nur 24 Bilder enthält, wird er normalerweise zur Bewertung von Bildwiederherstellungsalgorithmen verwendet, insbesondere im Bereich der verlustbehafteten Bildkomprimierung.

Datensatzquelle

Produkt: Eastman Kodak Company | Kodak

Produktionsagentur: Kodak Company

Originalartikel: „Kodak PhotoCD Image Database“ Autoren: ND Holland, JB Schwengerdt, EM Reiman, JC Galloway

Sonne

Einführung in den Datensatz:

Der Sun-Datensatz ist ein Datensatz zum Trainieren und Bewerten von Bild-Superauflösungsalgorithmen. Es enthält 817 hochauflösende Bilder aus verschiedenen Bildtypen wie Architektur, Landschaft, Natur usw. Diese Bilder stammen alle aus der realen Welt und zeichnen sich durch hohe Komplexität und Authentizität aus. Jedes Bild im Sonnendatensatz wird mit einer 2x oder 3x geringeren Auflösung im Vergleich zum Originalbild bereitgestellt. Eine solche Datenorganisation kann zum Trainieren und Bewerten von hochauflösenden Algorithmen verwendet werden.

Der Sun-Datensatz wird häufig zum Trainieren von Super-Resolution-Algorithmen beim Trainieren von Bild-Inpainting-Algorithmen verwendet, die eine hohe Komplexität und Authentizität aufweisen. Mithilfe des Sun-Datensatzes trainierte Bildinpainting-Algorithmen sind im Allgemeinen in der Lage, bei der Verarbeitung von Bildern mit niedriger Auflösung hochauflösende Bilder mit höherer Qualität, höheren Details und weniger Rauschen zu erzeugen. In der Praxis wird der Sun-Datensatz häufig zum Trainieren von Bild-Inpainting-Algorithmen verwendet und häufig mit anderen Datensätzen verglichen, wenn die Leistung bei neuen Bildern bewertet wird.

Datensatzquelle

Link: http://groups.csail.mit.edu/vision/SUN/

Produzent: Stanford University

Originaltext: SUN-Datenbank: Erkundung einer großen Sammlung von Szenenkategorien

COCO

Einführung in den Datensatz:

Der COCO-Datensatz ist ein Datensatz zum Trainieren und Bewerten von Computer-Vision-Algorithmen, hauptsächlich für Aufgaben wie Objekterkennung, semantische Segmentierung und Bildschlüsselpunkterkennung. Es enthält mehr als 3,3 Millionen hochauflösende Bilder von 80 Objektkategorien, darunter Menschen, Autos, Stühle, Hunde usw. Jedes Bild im COCO-Datensatz verfügt über eine entsprechende Beschriftung, einschließlich Objektkategorie, Objektstandort und anderen Informationen. Diese Bezeichnungen können dem Algorithmus helfen, während des Trainings weitere Funktionen zu erlernen.

Beim Training von Bildinpainting-Algorithmen kann der COCO-Datensatz zum Trainieren von Bildrauschunterdrückungsalgorithmen verwendet werden. Da der COCO-Datensatz eine große Anzahl hochauflösender Bilder enthält und die Standortinformationen von Objekten in den Bildern markiert wurden, kann er zum Trainieren des Algorithmus verwendet werden, um Rauschen im Bild zu entfernen.

Datensatzquelle

Titel: COCO – Gemeinsame Objekte im Kontext

Produzent: Microsoft Research

Originalartikel: Microsoft COCO: Gemeinsame Objekte im Kontext

Je suppose que tu aimes

Origine blog.csdn.net/qq_45790998/article/details/128681365
conseillé
Classement