1. Introduction à l'API MediaExtractor
Le rôle de MediaExtractor est de séparer les données audio et vidéo.
Introduction principale de l'API:
- setDataSource (String path): les fichiers locaux et les fichiers réseau peuvent être définis
- getTrackCount (): obtient le nombre de canaux de fichier source
- getTrackFormat (int index): récupère le format de canal spécifié (index)
- getSampleTime (): renvoie l'horodatage actuel
- readSampleData (ByteBuffer byteBuf, int offset): lit les données du canal spécifié dans le ByteBuffer en fonction de l'offset;
- avance (): lit la prochaine trame de données
- release (): Libérer les ressources après la lecture
Il y a principalement plusieurs étapes pour utiliser MediaExtractor:
- Configurer la source de données
- Obtenez le nombre de canaux, passez à la piste souhaitée
- Lire les exemples de données de chaque image de manière cyclique
- Libérer les ressources après l'achèvement
Exemple de séparation de la vidéo MP4 en audio et vidéo:
private void exactorMedia() {
FileOutputStream videoOutputStream = null;
FileOutputStream audioOutputStream = null;
try {
//分离的视频文件
File videoFile = new File(SDCARD_PATH, "output_video.mp4");
//分离的音频文件
File audioFile = new File(SDCARD_PATH, "output_audios.mp3");
videoOutputStream = new FileOutputStream(videoFile);
audioOutputStream = new FileOutputStream(audioFile);
//源文件
mediaExtractor.setDataSource(SDCARD_PATH + "720p.mp4");
//信道总数
int trackCount = mediaExtractor.getTrackCount();
int audioTrackIndex = -1;
int videoTrackIndex = -1;
for (int i = 0; i < trackCount; i++) {
MediaFormat trackFormat = mediaExtractor.getTrackFormat(i);
String mineType = trackFormat.getString(MediaFormat.KEY_MIME);
//视频信道
if (mineType.startsWith("video/")) {
videoTrackIndex = i;
}
//音频信道
if (mineType.startsWith("audio/")) {
audioTrackIndex = i;
}
}
ByteBuffer byteBuffer = ByteBuffer.allocate(500 * 1024);
//切换到视频信道
mediaExtractor.selectTrack(videoTrackIndex);
while (true) {
int readSampleCount = mediaExtractor.readSampleData(byteBuffer, 0);
if (readSampleCount < 0) {
Log.d("dimen", "视频分离完成 ");
break;
}
//保存视频信道信息
byte[] buffer = new byte[readSampleCount];
byteBuffer.get(buffer);
videoOutputStream.write(buffer);
byteBuffer.clear();
mediaExtractor.advance();
}
//切换到音频信道
mediaExtractor.selectTrack(audioTrackIndex);
while (true) {
int readSampleCount = mediaExtractor.readSampleData(byteBuffer, 0);
if (readSampleCount < 0) {
Log.d("dimen", "音频分离完成 ");
break;
}
//保存音频信息
byte[] buffer = new byte[readSampleCount];
byteBuffer.get(buffer);
audioOutputStream.write(buffer);
byteBuffer.clear();
mediaExtractor.advance();
}
} catch (IOException e) {
e.printStackTrace();
} finally {
mediaExtractor.release();
try {
videoOutputStream.close();
} catch (IOException e) {
e.printStackTrace();
}
}
}
}
2. Introduction à l'API MediaMuxer
Le rôle de MediaMuxer est de générer des fichiers audio ou vidéo; il peut également mélanger l'audio et la vidéo en un seul fichier audio et vidéo.
Introduction relative à l'API:
- MediaMuxer (String path, int format): path: le nom du format de fichier de sortie: le format du fichier de sortie, ne prend actuellement en charge que le format MP4;
- addTrack (format MediaFormat): ajouter un canal; nous utilisons MediaCodec.getOutpurForma () ou Extractor.getTrackFormat (index int) pour obtenir MediaFormat; vous pouvez également le créer vous-même;
- start (): commence à synthétiser les fichiers
- writeSampleData (int trackIndex, ByteBuffer byteBuf, MediaCodec.BufferInfo bufferInfo): écrit les données de ByteBuffer dans le fichier défini dans le constructeur;
- stop (): arrêter la synthèse des fichiers
- release (): libérer les ressources
Étapes à suivre pour utiliser MediaMuxer:
- Définissez le chemin du fichier cible et le format audio et vidéo
- Ajoutez des pistes à synthétiser, y compris des pistes audio et des pistes vidéo
- Démarrez la synthèse, écrivez des échantillons de données pour chaque image de manière cyclique
- Libération après achèvement
Exemples de séparation vidéo pure:
private void SeparateVideo() {
int videoIndex = -1;
try {
mediaExtractor.setDataSource(SDCARD_PATH + "720p.mp4");
int trackCount = mediaExtractor.getTrackCount();
for (int i = 0; i < trackCount; i++) {
MediaFormat trackFormat = mediaExtractor.getTrackFormat(i);
String mimeType = trackFormat.getString(MediaFormat.KEY_MIME);
// 取出视频的信号
if (mimeType.startsWith("video/")) {
videoIndex = i;
}
}
//切换道视频信号的信道
mediaExtractor.selectTrack(videoIndex);
MediaFormat trackFormat = mediaExtractor.getTrackFormat(videoIndex);
mediaMuxer = new MediaMuxer(SDCARD_PATH + "/output_video2.mp4", MediaMuxer.OutputFormat.MUXER_OUTPUT_MPEG_4);
//追踪此信道
int trackIndex = mediaMuxer.addTrack(trackFormat);
ByteBuffer byteBuffer = ByteBuffer.allocate(1024 * 500);
MediaCodec.BufferInfo bufferInfo = new MediaCodec.BufferInfo();
mediaMuxer.start();
long videoSampleTime;
//获取每帧的之间的时间
{
mediaExtractor.readSampleData(byteBuffer, 0);
//skip first I frame
if (mediaExtractor.getSampleFlags() == MediaExtractor.SAMPLE_FLAG_SYNC)
mediaExtractor.advance();
mediaExtractor.readSampleData(byteBuffer, 0);
long firstVideoPTS = mediaExtractor.getSampleTime();
mediaExtractor.advance();
mediaExtractor.readSampleData(byteBuffer, 0);
long SecondVideoPTS = mediaExtractor.getSampleTime();
videoSampleTime = Math.abs(SecondVideoPTS - firstVideoPTS);
Log.d("dimen", "videoSampleTime is " + videoSampleTime);
}
//重新切换此信道,不然上面跳过了3帧,造成前面的帧数模糊
mediaExtractor.unselectTrack(videoIndex);
mediaExtractor.selectTrack(videoIndex);
while (true) {
//读取帧之间的数据
int readSampleSize = mediaExtractor.readSampleData(byteBuffer, 0);
if (readSampleSize < 0) {
break;
}
mediaExtractor.advance();
bufferInfo.size = readSampleSize;
bufferInfo.offset = 0;
bufferInfo.flags = mediaExtractor.getSampleFlags();
bufferInfo.presentationTimeUs += videoSampleTime;
//写入帧的数据
mediaMuxer.writeSampleData(trackIndex, byteBuffer, bufferInfo);
}
//release
mediaMuxer.stop();
mediaExtractor.release();
mediaMuxer.release();
Log.e("dimen", "finish");
} catch (IOException e) {
e.printStackTrace();
}
}
Exemple de séparation de l'audio pur:
private void SeparateAudio() {
int audioIndex = -1;
try {
mediaExtractor.setDataSource(SDCARD_PATH + "720p.mp4");
int trackCount = mediaExtractor.getTrackCount();
for (int i = 0; i < trackCount; i++) {
MediaFormat trackFormat = mediaExtractor.getTrackFormat(i);
if (trackFormat.getString(MediaFormat.KEY_MIME).startsWith("audio/")) {
audioIndex = i;
}
}
mediaExtractor.selectTrack(audioIndex);
MediaFormat trackFormat = mediaExtractor.getTrackFormat(audioIndex);
mediaMuxer = new MediaMuxer(SDCARD_PATH + "/output_audios2.mp3", MediaMuxer.OutputFormat.MUXER_OUTPUT_MPEG_4);
int writeAudioIndex = mediaMuxer.addTrack(trackFormat);
mediaMuxer.start();
ByteBuffer byteBuffer = ByteBuffer.allocate(500 * 1024);
MediaCodec.BufferInfo bufferInfo = new MediaCodec.BufferInfo();
long stampTime = 0;
//获取帧之间的间隔时间
{
mediaExtractor.readSampleData(byteBuffer, 0);
if (mediaExtractor.getSampleFlags() == MediaExtractor.SAMPLE_FLAG_SYNC) {
mediaExtractor.advance();
}
mediaExtractor.readSampleData(byteBuffer, 0);
long secondTime = mediaExtractor.getSampleTime();
mediaExtractor.advance();
mediaExtractor.readSampleData(byteBuffer, 0);
long thirdTime = mediaExtractor.getSampleTime();
stampTime = Math.abs(thirdTime - secondTime);
Log.e("dimen", stampTime + "");
}
mediaExtractor.unselectTrack(audioIndex);
mediaExtractor.selectTrack(audioIndex);
while (true) {
int readSampleSize = mediaExtractor.readSampleData(byteBuffer, 0);
if (readSampleSize < 0) {
break;
}
mediaExtractor.advance();
bufferInfo.size = readSampleSize;
bufferInfo.flags = mediaExtractor.getSampleFlags();
bufferInfo.offset = 0;
bufferInfo.presentationTimeUs += stampTime;
mediaMuxer.writeSampleData(writeAudioIndex, byteBuffer, bufferInfo);
}
mediaMuxer.stop();
mediaMuxer.release();
mediaExtractor.release();
Log.e("dimen", "finish");
} catch (IOException e) {
e.printStackTrace();
}
}
Exemples de synthèse audio pure et vidéo pure:
private void SynthesisAudioVideo() {
try {
MediaExtractor videoExtractor = new MediaExtractor();
videoExtractor.setDataSource(SDCARD_PATH + "output_video2.mp4");
MediaFormat videoFormat = null;
int videoTrackIndex = -1;
int videoTrackCount = videoExtractor.getTrackCount();
for (int i = 0; i < videoTrackCount; i++) {
videoFormat = videoExtractor.getTrackFormat(i);
String mimeType = videoFormat.getString(MediaFormat.KEY_MIME);
if (mimeType.startsWith("video/")) {
videoTrackIndex = i;
break;
}
}
MediaExtractor audioExtractor = new MediaExtractor();
audioExtractor.setDataSource(SDCARD_PATH + "output_audios2.mp3");
MediaFormat audioFormat = null;
int audioTrackIndex = -1;
int audioTrackCount = audioExtractor.getTrackCount();
for (int i = 0; i < audioTrackCount; i++) {
audioFormat = audioExtractor.getTrackFormat(i);
String mimeType = audioFormat.getString(MediaFormat.KEY_MIME);
if (mimeType.startsWith("audio/")) {
audioTrackIndex = i;
break;
}
}
videoExtractor.selectTrack(videoTrackIndex);
audioExtractor.selectTrack(audioTrackIndex);
MediaCodec.BufferInfo videoBufferInfo = new MediaCodec.BufferInfo();
MediaCodec.BufferInfo audioBufferInfo = new MediaCodec.BufferInfo();
MediaMuxer mediaMuxer = new MediaMuxer(SDCARD_PATH + "/output.mp4", MediaMuxer.OutputFormat.MUXER_OUTPUT_MPEG_4);
int writeVideoTrackIndex = mediaMuxer.addTrack(videoFormat);
int writeAudioTrackIndex = mediaMuxer.addTrack(audioFormat);
mediaMuxer.start();
ByteBuffer byteBuffer = ByteBuffer.allocate(500 * 1024);
long sampleTime = 0;
{
videoExtractor.readSampleData(byteBuffer, 0);
if (videoExtractor.getSampleFlags() == MediaExtractor.SAMPLE_FLAG_SYNC) {
videoExtractor.advance();
}
videoExtractor.readSampleData(byteBuffer, 0);
long secondTime = videoExtractor.getSampleTime();
videoExtractor.advance();
long thirdTime = videoExtractor.getSampleTime();
sampleTime = Math.abs(thirdTime - secondTime);
}
videoExtractor.unselectTrack(videoTrackIndex);
videoExtractor.selectTrack(videoTrackIndex);
while (true) {
int readVideoSampleSize = videoExtractor.readSampleData(byteBuffer, 0);
if (readVideoSampleSize < 0) {
break;
}
videoBufferInfo.size = readVideoSampleSize;
videoBufferInfo.presentationTimeUs += sampleTime;
videoBufferInfo.offset = 0;
videoBufferInfo.flags = videoExtractor.getSampleFlags();
mediaMuxer.writeSampleData(writeVideoTrackIndex, byteBuffer, videoBufferInfo);
videoExtractor.advance();
}
while (true) {
int readAudioSampleSize = audioExtractor.readSampleData(byteBuffer, 0);
if (readAudioSampleSize < 0) {
break;
}
audioBufferInfo.size = readAudioSampleSize;
audioBufferInfo.presentationTimeUs += sampleTime;
audioBufferInfo.offset = 0;
audioBufferInfo.flags = videoExtractor.getSampleFlags();
mediaMuxer.writeSampleData(writeAudioTrackIndex, byteBuffer, audioBufferInfo);
audioExtractor.advance();
}
mediaMuxer.stop();
mediaMuxer.release();
videoExtractor.release();
audioExtractor.release();
} catch (IOException e) {
e.printStackTrace();
}
}
Adresse du projet: https://github.com/ChloeDimen/AudioAndVideo