FFmpeg-Neulernen – FFmpeg-Dekodierungswissen

Lesen Sie weiter die Kursmaterialien von Lei Xiaohua – die Produktion eines Videoplayers basierend auf FFmpeg+SDL

Ich habe fünf Seiten verwendet, um über FFmpeg zu sprechen. Der Hauptzweck besteht darin, die Funktion der Konvertierung von Bildern in Videos zu erkennen

Im Allgemeinen habe ich ein gewisses Verständnis für FFmepg. Aber der Quellcode-Teil ist immer noch überhaupt nicht klar. Als nächstes sortieren Sie einfach die FFmpeg-Quellcodestruktur. Schließlich wird in der Arbeit, die ich jetzt mache, nicht allzu viel Wert darauf gelegt. Warten Sie auf die Gelegenheit, in Zukunft systematisch zu lernen.

ffmpeg-Neulernen – Linux-Installationsanweisungen

ffmpeg neu lernen – Installationsanleitung unter Windows

ffmpeg neu lernen – JPEG in mp4 konvertieren

ffmpeg-Neulernen – Hardware-beschleunigter Codec

ffmpeg-Neulernen – Grundkenntnisse in Video und Audio ,

★Auf der Visitenkarte am Ende des Artikels finden Sie kostenlose Lernmaterialien zur Audio- und Videoentwicklung, einschließlich (FFmpeg, webRTC, rtmp, hls, rtsp, ffplay, srs) sowie Roadmaps zum Audio- und Videolernen usw.

siehe unten!

1. Einführung in FFmpeg

Siehe: ffmpeg-Quellcode

Komm, komm, README.

FFmpeg ist eine Sammlung von Bibliotheken und Tools zur Verarbeitung von Multimedia-Inhalten wie Audio, Video, Untertiteln und zugehörigen Metadaten.

Die darin enthaltenen Bibliotheken sind:

libavcodec bietet Implementierungen einer breiteren Palette von Codecs.

libavformat implementiert Streaming-Protokolle, Containerformate und grundlegenden E/A-Zugriff.

libavutil umfasst Hasher, Dekomprimierer und verschiedene Hilfsfunktionen.

libavfilter bietet die Möglichkeit, dekodiertes Audio und Video durch eine Reihe von Filtern zu verändern.

libavdevice bietet eine Abstraktion für den Zugriff auf Aufnahme- und Wiedergabegeräte.

libswresample implementiert Audio-Misch- und Resampling-Programme.

libswscale implementiert Farbkonvertierungs- und Skalierungsroutinen.

Werkzeug

ffmpeg ist ein Befehlszeilen-Toolkit zum Bearbeiten, Konvertieren und Streamen von Multimedia-Inhalten.

ffplay ist ein minimalistischer Multimedia-Player.

ffprobe ist ein einfaches Analysetool zur Überprüfung von Multimedia-Inhalten.

ffserver ist ein Multimedia-Streaming-Server für Live-Streaming.

Andere Gadgets wie Aviocat, Ismindex und QT-Faststart.

2. FFmpeg-Dekodierungsfunktion

Einführung in die FFmpeg-Dekodierungsfunktion

av_register_all() registriert alle Komponenten.

avformat_open_input() Öffnet eine Eingabevideodatei.

avformat_find_stream_info() Informationen zur Videodatei abrufen.

avcodec_find_decoder() Findet einen Decoder.

avcodec_open2() Öffnet den Decoder.

av_read_frame() Liest einen Frame komprimierter Daten aus einer Eingabedatei.

avcodec_decode_video2() dekodiert einen Frame komprimierter Daten.

avcodec_close() schließt den Decoder.

avformat_close_input() schließt die Eingabevideodatei.

Das Flussdiagramm der FFmpeg-Dekodierung ist wie folgt

Quellcode-Analyse

【Architekturdiagramm】

Strukturdiagramm des FFmpeg-Quellcodes – Dekodierung

Strukturdiagramm des FFmpeg-Quellcodes – Kodierung

【Allgemein】

Einfache Analyse des FFmpeg-Quellcodes: av_register_all()

Einfache Analyse des FFmpeg-Quellcodes: avcodec_register_all()

Einfache Analyse des FFmpeg-Quellcodes: Speicherzuweisung und -freigabe (av_malloc(), av_free() usw.)

Einfache Analyse des FFmpeg-Quellcodes: Initialisierung und Zerstörung gemeinsamer Strukturen (AVFormatContext, AVFrame usw.)

Einfache Analyse des FFmpeg-Quellcodes: avio_open2()

Einfache Analyse des FFmpeg-Quellcodes: av_find_decoder() und av_find_encoder()

Einfache Analyse des FFmpeg-Quellcodes: avcodec_open2()

Einfache Analyse des FFmpeg-Quellcodes: avcodec_close()

【Dekodierung】

Grafische FFMPEG-Open-Media-Funktion avformat_open_input

Einfache Analyse des FFmpeg-Quellcodes: avformat_open_input()

Einfache Analyse des FFmpeg-Quellcodes: avformat_find_stream_info()

Einfache Analyse des FFmpeg-Quellcodes: av_read_frame()

Einfache Analyse des FFmpeg-Quellcodes: avcodec_decode_video2()

Einfache Analyse des FFmpeg-Quellcodes: avformat_close_input()

3. Die Datenstruktur der FFFmpeg-Dekodierung

Die Strukturdefinition unten kann mit „Gehe zu Definition“ (F12) angezeigt werden.

Die Datenstruktur der FFmpeg-Dekodierung ist wie folgt

Einführung in die FFmpeg-Datenstruktur

AVFormatContext

Die Kontextstruktur des Kapselungsformats ist auch eine globale Struktur, die Informationen über das Kapselungsformat von Videodateien speichert.

      iformat:输入视频的AVInputFormat
      nb_streams :输入视频的AVStream 个数
      streams :输入视频的AVStream []数组
      duration :输入视频的时长(以微秒为单位)
      bit_rate :输入视频的码率

AVInputFormat

Für jedes Paketformat (z. B. FLV, MKV, MP4, AVI) gibt es eine Struktur.

      name:封装格式名称
      long_name:封装格式的长名称
      extensions:封装格式的扩展名
      id:封装格式ID  
      一些封装格式处理的接口函数

AVStream

Jeder Video-(Audio-)Stream in der Videodatei entspricht dieser Struktur.

      id:序号
      codec:该流对应的AVCodecContext
      time_base:该流的时基
      r_frame_rate: 该流的帧率


In der Kontextstruktur des AVCodecContext- Encoders werden Informationen zum Video- (Audio-) Codec gespeichert.

      codec:编解码器的AVCodec
      width, height:图像的宽高(只针对视频)
      pix_fmt:像素格式(只针对视频)
      sample_rate:采样率( 只针对音频)
      channels:声道数(只针对音频)
      sample_fmt:采样格式(只针对音频)

AVCodec

Jeder Video-(Audio-)Codec (z. B. H.264-Codec) entspricht dieser Struktur.

      name:编解码器名称
      long_name:编解码器长名称
      type:编解码器类型
      id:编解码器ID
      一些编解码的接口函数

Das AVPacket

Speichert einen Frame komprimierter codierter Daten.

      pts:显示时间戳
      dts :解码时间戳
      data :压缩编码数据
      size :压缩编码数据大小
      stream_index :所属的AVStream

AVFrame

Speichert einen Frame dekodierter Pixeldaten (Beispieldaten).

      data:解码后的图像像素数据(音频采样数据)。
      linesize:对视频来说是图像中一行像素的大小;对音频来说是整个音频帧的大小。
      width, height:图像的宽高(只针对视频)。
      key_frame:是否为关键帧(只针对视频) 。
      pict_type:帧类型(只针对视频) 。例如I, P, B。

4. Dekodierungsbeispiel

(1) Der Quellcode lautet wie folgt:

/**
* 最简单的基于FFmpeg的解码器
* Simplest FFmpeg Decoder
*
* 雷霄骅 Lei Xiaohua
* [email protected]
* 中国传媒大学/数字电视技术
* Communication University of China / Digital TV Technology
* http://blog.csdn.net/leixiaohua1020
*
* 本程序实现了视频文件的解码(支持HEVC,H.264,MPEG2等)。
* 是最简单的FFmpeg视频解码方面的教程。
* 通过学习本例子可以了解FFmpeg的解码流程。
* This software is a simplest video decoder based on FFmpeg.
* Suitable for beginner of FFmpeg.
*
*/
 
#include <stdio.h>
#include "stdafx.h"
 
#define __STDC_CONSTANT_MACROS
 
#ifdef _WIN32
//Windows
extern "C"
{
#include "libavcodec/avcodec.h"
#include "libavformat/avformat.h"
#include "libswscale/swscale.h"
};
#else
//Linux...
#ifdef __cplusplus
extern "C"
{
#endif
#include <libavcodec/avcodec.h>
#include <libavformat/avformat.h>
#include <libswscale/swscale.h>
#ifdef __cplusplus
};
#endif
#endif
 
 
int main(int argc, char* argv[])
{
	AVFormatContext *pFormatCtx;
	int             i, videoindex;
	AVCodecContext  *pCodecCtx;
	AVCodec         *pCodec;
	AVFrame *pFrame, *pFrameYUV;
	uint8_t *out_buffer;
	AVPacket *packet;
	int y_size;
	int ret, got_picture;
	struct SwsContext *img_convert_ctx;
	//输入文件路径
	char filepath[] = "Titanic.ts";
	//创建两个解码后的输出文件
	FILE *fp_yuv = fopen("output.yuv", "wb+");
	FILE *fp_h264 = fopen("output.h264", "wb+");
 
	av_register_all();//注册所有组件
	avformat_network_init();//初始化网络
	pFormatCtx = avformat_alloc_context();//初始化一个AVFormatContext
 
	if (avformat_open_input(&pFormatCtx, filepath, NULL, NULL) != 0) {//打开输入的视频文件
		printf("Couldn't open input stream.\n");
		return -1;
	}
	if (avformat_find_stream_info(pFormatCtx, NULL)<0) {//获取视频文件信息
		printf("Couldn't find stream information.\n");
		return -1;
	}
	videoindex = -1;
	for (i = 0; i < pFormatCtx->nb_streams; i++)
	{
		if (pFormatCtx->streams[i]->codec->codec_type == AVMEDIA_TYPE_VIDEO) {
			videoindex = i;
			break;
		}
	}
	if (videoindex == -1) {
		printf("Didn't find a video stream.\n");
		return -1;
	}
 
	pCodecCtx = pFormatCtx->streams[videoindex]->codec;
	pCodec = avcodec_find_decoder(pCodecCtx->codec_id);//查找解码器
	if (pCodec == NULL) {
		printf("Codec not found.\n");
		return -1;
	}
	if (avcodec_open2(pCodecCtx, pCodec, NULL)<0) {//打开解码器
		printf("Could not open codec.\n");
		return -1;
	}
 
	/*
	* 在此处添加输出视频信息的代码
	* 取自于pFormatCtx,使用fprintf()
	*/
	FILE *fp = fopen("info.txt", "wb+");
	fprintf(fp,"时长:%d\n",pFormatCtx->duration);
	fprintf(fp,"封装格式:%s\n",pFormatCtx->iformat->long_name);
	fprintf(fp,"宽高:%d*%d\n",pFormatCtx->streams[videoindex]->codec->width, pFormatCtx->streams[videoindex]->codec->height);
 
	pFrame = av_frame_alloc();
	pFrameYUV = av_frame_alloc();
	out_buffer = (uint8_t *)av_malloc(avpicture_get_size(PIX_FMT_YUV420P, pCodecCtx->width, pCodecCtx->height));
	avpicture_fill((AVPicture *)pFrameYUV, out_buffer, PIX_FMT_YUV420P, pCodecCtx->width, pCodecCtx->height);
	packet = (AVPacket *)av_malloc(sizeof(AVPacket));
	//Output Info-----------------------------
	printf("--------------- File Information ----------------\n");
	av_dump_format(pFormatCtx, 0, filepath, 0);
	printf("-------------------------------------------------\n");
	img_convert_ctx = sws_getContext(pCodecCtx->width, pCodecCtx->height, pCodecCtx->pix_fmt,
		pCodecCtx->width, pCodecCtx->height, PIX_FMT_YUV420P, SWS_BICUBIC, NULL, NULL, NULL);
 
	int frame_cnt=0;
	while (av_read_frame(pFormatCtx, packet) >= 0) {//读取一帧压缩数据
		if (packet->stream_index == videoindex) {
			/*
			* 在此处添加输出H264码流的代码
			* 取自于packet,使用fwrite()
			*/
			fwrite(packet->data, 1, packet->size, fp_h264); //把H264数据写入fp_h264文件
 
			ret = avcodec_decode_video2(pCodecCtx, pFrame, &got_picture, packet);//解码一帧压缩数据
			if (ret < 0) {
				printf("Decode Error.\n");
				return -1;
			}
			if (got_picture) {
				sws_scale(img_convert_ctx, (const uint8_t* const*)pFrame->data, pFrame->linesize, 0, pCodecCtx->height,
					pFrameYUV->data, pFrameYUV->linesize);
 
				y_size = pCodecCtx->width*pCodecCtx->height;
				/*
				* 在此处添加输出YUV的代码
				* 取自于pFrameYUV,使用fwrite()
				*/
				printf("Decoded frame index: %d\n", frame_cnt);
 
				fwrite(pFrameYUV->data[0], 1, y_size, fp_yuv);    //Y 
				fwrite(pFrameYUV->data[1], 1, y_size / 4, fp_yuv);  //U
				fwrite(pFrameYUV->data[2], 1, y_size / 4, fp_yuv);  //V
 
				frame_cnt++;
 
			}
		}
		av_free_packet(packet);
	}
 
	//flush decoder
	//FIX: Flush Frames remained in Codec
	int frame_cnt1 = 0;
	while (1) {
		ret = avcodec_decode_video2(pCodecCtx, pFrame, &got_picture, packet);
		if (ret < 0)
			break;
		if (!got_picture)
			break;
		sws_scale(img_convert_ctx, (const uint8_t* const*)pFrame->data, pFrame->linesize, 0, pCodecCtx->height,
			pFrameYUV->data, pFrameYUV->linesize);
 
		int y_size = pCodecCtx->width*pCodecCtx->height;
		printf("Flush Decoder: %d\n", frame_cnt1);
		fwrite(pFrameYUV->data[0], 1, y_size, fp_yuv);    //Y 
		fwrite(pFrameYUV->data[1], 1, y_size / 4, fp_yuv);  //U
		fwrite(pFrameYUV->data[2], 1, y_size / 4, fp_yuv);  //V
		frame_cnt1++;
	}
	
	sws_freeContext(img_convert_ctx);
 
	//关闭文件以及释放内存
	fclose(fp_yuv);
	fclose(fp_h264);
 
	av_frame_free(&pFrameYUV);
	av_frame_free(&pFrame);
	avcodec_close(pCodecCtx);
	avformat_close_input(&pFormatCtx);
 
	return 0;
}

(2) Projekt-Download

Download: FFmpeg-Dekodierungsprojekt

(3) Projektbeschreibung

Verwenden Sie  die MediaInfo-  Software, um Titanic.ts-Videoinformationen anzuzeigen

Sehen Sie sich die vom Debuggen generierte info.txt an, um die entsprechenden Videoinformationen anzuzeigen

Sehen Sie sich das resultierende Video über den YUV-Player und CyberLink PowerDVD 14 an.

5. Nachfolgende Zusammenfassung

(1) Flush_decoder-Funktion

Wenn die av_read_frame()-Schleife beendet wird, enthält der Decoder möglicherweise tatsächlich die verbleibenden Datenrahmen. Daher ist es notwendig, diese Datenrahmen über „flush_decoder“ auszugeben. Kurz gesagt, die Funktion „flush_decoder“ ruft avcodec_decode_video2() direkt auf, um AVFrame zu erhalten, anstatt AVPacket an den Decoder zu übergeben.

Spezifische Ursache:

Siehe: avcodec_decode_video2() löst das Problem des Bildverlusts nach der Videodekodierung

Man erkennt auch den Bruchpunkt, es gibt tatsächlich ein paar Frames, die vorher noch nicht gedruckt wurden.

(2) Warum sollten die dekodierten Daten von der Funktion sws_scale() verarbeitet werden?

Die dekodierten Videopixeldaten im YUV-Format werden in Daten[0], Daten[1], Daten[2] von AVFrame gespeichert. Diese Pixelwerte werden jedoch nicht kontinuierlich gespeichert, und einige ungültige Pixel werden nach jeder Zeile gültiger Pixel gespeichert. Nehmen Sie als Beispiel Helligkeits-Y-Daten. Daten[0] enthält insgesamt Liniengröße[0]*Höhendaten. Aus Optimierungsgründen ist die Liniengröße [0] jedoch nicht gleich der Breite, sondern ein Wert, der größer als die Breite ist. Daher muss zum Konvertieren sws_scale () verwendet werden. Ungültige Daten werden nach der Konvertierung entfernt und die Werte für Breite und Liniengröße [0] sind gleich.

(3) Quellcode-Beispiel

Es gibt auch Beispiele im Quellcode, siehe FFmpeg/doc/examples/

Sehen Sie sich den Quellcode von decode_video.c an:

/*
 * Copyright (c) 2001 Fabrice Bellard
 *
 * Permission is hereby granted, free of charge, to any person obtaining a copy
 * of this software and associated documentation files (the "Software"), to deal
 * in the Software without restriction, including without limitation the rights
 * to use, copy, modify, merge, publish, distribute, sublicense, and/or sell
 * copies of the Software, and to permit persons to whom the Software is
 * furnished to do so, subject to the following conditions:
 *
 * The above copyright notice and this permission notice shall be included in
 * all copies or substantial portions of the Software.
 *
 * THE SOFTWARE IS PROVIDED "AS IS", WITHOUT WARRANTY OF ANY KIND, EXPRESS OR
 * IMPLIED, INCLUDING BUT NOT LIMITED TO THE WARRANTIES OF MERCHANTABILITY,
 * FITNESS FOR A PARTICULAR PURPOSE AND NONINFRINGEMENT. IN NO EVENT SHALL
 * THE AUTHORS OR COPYRIGHT HOLDERS BE LIABLE FOR ANY CLAIM, DAMAGES OR OTHER
 * LIABILITY, WHETHER IN AN ACTION OF CONTRACT, TORT OR OTHERWISE, ARISING FROM,
 * OUT OF OR IN CONNECTION WITH THE SOFTWARE OR THE USE OR OTHER DEALINGS IN
 * THE SOFTWARE.
 */
 
/**
 * @file
 * video decoding with libavcodec API example
 *
 * @example decode_video.c
 */
 
#include <stdio.h>
#include <stdlib.h>
#include <string.h>
 
#include <libavcodec/avcodec.h>
 
#define INBUF_SIZE 4096
 
static void pgm_save(unsigned char *buf, int wrap, int xsize, int ysize,
                     char *filename)
{
    FILE *f;
    int i;
 
    f = fopen(filename,"w");
    fprintf(f, "P5\n%d %d\n%d\n", xsize, ysize, 255);
    for (i = 0; i < ysize; i++)
        fwrite(buf + i * wrap, 1, xsize, f);
    fclose(f);
}
 
static int decode_write_frame(const char *outfilename, AVCodecContext *avctx,
                              AVFrame *frame, int *frame_count, AVPacket *pkt, int last)
{
    int len, got_frame;
    char buf[1024];
 
    len = avcodec_decode_video2(avctx, frame, &got_frame, pkt);
    if (len < 0) {
        fprintf(stderr, "Error while decoding frame %d\n", *frame_count);
        return len;
    }
    if (got_frame) {
        printf("Saving %sframe %3d\n", last ? "last " : "", *frame_count);
        fflush(stdout);
 
        /* the picture is allocated by the decoder, no need to free it */
        snprintf(buf, sizeof(buf), "%s-%d", outfilename, *frame_count);
        pgm_save(frame->data[0], frame->linesize[0],
                 frame->width, frame->height, buf);
        (*frame_count)++;
    }
    if (pkt->data) {
        pkt->size -= len;
        pkt->data += len;
    }
    return 0;
}
 
int main(int argc, char **argv)
{
    const char *filename, *outfilename;
    const AVCodec *codec;
    AVCodecContext *c= NULL;
    int frame_count;
    FILE *f;
    AVFrame *frame;
    uint8_t inbuf[INBUF_SIZE + AV_INPUT_BUFFER_PADDING_SIZE];
    AVPacket avpkt;
 
    if (argc <= 2) {
        fprintf(stderr, "Usage: %s <input file> <output file>\n", argv[0]);
        exit(0);
    }
    filename    = argv[1];
    outfilename = argv[2];
 
    avcodec_register_all();
 
    av_init_packet(&avpkt);
 
    /* set end of buffer to 0 (this ensures that no overreading happens for damaged MPEG streams) */
    memset(inbuf + INBUF_SIZE, 0, AV_INPUT_BUFFER_PADDING_SIZE);
 
    /* find the MPEG-1 video decoder */
    codec = avcodec_find_decoder(AV_CODEC_ID_MPEG1VIDEO);
    if (!codec) {
        fprintf(stderr, "Codec not found\n");
        exit(1);
    }
 
    c = avcodec_alloc_context3(codec);
    if (!c) {
        fprintf(stderr, "Could not allocate video codec context\n");
        exit(1);
    }
 
    if (codec->capabilities & AV_CODEC_CAP_TRUNCATED)
        c->flags |= AV_CODEC_FLAG_TRUNCATED; // we do not send complete frames
 
    /* For some codecs, such as msmpeg4 and mpeg4, width and height
       MUST be initialized there because this information is not
       available in the bitstream. */
 
    /* open it */
    if (avcodec_open2(c, codec, NULL) < 0) {
        fprintf(stderr, "Could not open codec\n");
        exit(1);
    }
 
    f = fopen(filename, "rb");
    if (!f) {
        fprintf(stderr, "Could not open %s\n", filename);
        exit(1);
    }
 
    frame = av_frame_alloc();
    if (!frame) {
        fprintf(stderr, "Could not allocate video frame\n");
        exit(1);
    }
 
    frame_count = 0;
    for (;;) {
        avpkt.size = fread(inbuf, 1, INBUF_SIZE, f);
        if (avpkt.size == 0)
            break;
 
        /* NOTE1: some codecs are stream based (mpegvideo, mpegaudio)
           and this is the only method to use them because you cannot
           know the compressed data size before analysing it.
           BUT some other codecs (msmpeg4, mpeg4) are inherently frame
           based, so you must call them with all the data for one
           frame exactly. You must also initialize 'width' and
           'height' before initializing them. */
 
        /* NOTE2: some codecs allow the raw parameters (frame size,
           sample rate) to be changed at any frame. We handle this, so
           you should also take care of it */
 
        /* here, we use a stream based decoder (mpeg1video), so we
           feed decoder and see if it could decode a frame */
        avpkt.data = inbuf;
        while (avpkt.size > 0)
            if (decode_write_frame(outfilename, c, frame, &frame_count, &avpkt, 0) < 0)
                exit(1);
    }
 
    /* Some codecs, such as MPEG, transmit the I- and P-frame with a
       latency of one frame. You must do the following to have a
       chance to get the last frame of the video. */
    avpkt.data = NULL;
    avpkt.size = 0;
    decode_write_frame(outfilename, c, frame, &frame_count, &avpkt, 1);
 
    fclose(f);
 
    avcodec_free_context(&c);
    av_frame_free(&frame);
 
    return 0;
}

Kompilieren:

Führen Sie eine Kompilierung mit folgendem Fehler durch:

Package libavdevice was not found in the pkg-config search path.
Perhaps you should add the directory containing `libavdevice.pc'
to the PKG_CONFIG_PATH environment variable
No package 'libavdevice' found

Wenn Sie sich die README-Datei ansehen, gibt es eine Methode:

Method 1: build the installed examples in a generic read/write user directory
 
Copy to a read/write user directory and just use "make", it will link
to the libraries on your system, assuming the PKG_CONFIG_PATH is
correctly configured.

Es bedeutet, den Speicherort der PKG_CONFIG_PATH-Bibliothek zu konfigurieren

Siehe: Vom Kompilieren von ffmpeg/examples, dann verstehen Sie pkg-config

Lösung:

在 /etc/profile 最后添加:
export PKG_CONFIG_PATH=/usr/local/ffmpeg/lib/pkgconfig:$PKG_CONFIG_PATH 
 
执行: source /etc/profile 
立即生效

Dann erstellen und kompilieren, um Dateien zu generieren:

Ursprüngliches  FFmpeg-Neulernen – FFmpeg-Dekodierungswissen

★Auf der Visitenkarte am Ende des Artikels finden Sie kostenlose Lernmaterialien zur Audio- und Videoentwicklung, einschließlich (FFmpeg, webRTC, rtmp, hls, rtsp, ffplay, srs) sowie Roadmaps zum Audio- und Videolernen usw.

siehe unten!

 

Je suppose que tu aimes

Origine blog.csdn.net/yinshipin007/article/details/131994596
conseillé
Classement