BEARBEITEN 9. April 2013: Ausgeführt wie libswresample zu verwenden, um dies zu tun ... viel schneller!
Irgendwann in den letzten 2-3 Jahren FFmpegs AAC-Decoder Ausgabeformat von AV_SAMPLE_FMT_S16 zu AV_SAMPLE_FMT_FLTP geändert. Dies bedeutet, dass jeder Audiokanal über einen eigenen Puffer verfügt und jeder Abtastwert ein 32-Bit-Gleitkommawert ist, der von -1,0 bis +1,0 skaliert wird. Wenn sich AV_SAMPLE_FMT_S16 mit AV_SAMPLE_FMT_S16 befindet, befinden sich die Daten in einem einzelnen Puffer mit den Interleaved Samples und jedes Sample ist eine Ganzzahl mit Vorzeichen von -32767 bis +32767.
Und wenn Sie Ihr Audio wirklich als AV_SAMPLE_FMT_S16 benötigen, müssen Sie die Konvertierung selbst durchführen. Ich fand heraus, zwei Möglichkeiten, es zu tun:
1. Verwenden Sie libswresample (empfohlen)
#include "libswresample/swresample.h"
...
SwrContext *swr;
...
// Set up SWR context once you've got codec information
swr = swr_alloc();
av_opt_set_int(swr, "in_channel_layout", audioCodec->channel_layout, 0);
av_opt_set_int(swr, "out_channel_layout", audioCodec->channel_layout, 0);
av_opt_set_int(swr, "in_sample_rate", audioCodec->sample_rate, 0);
av_opt_set_int(swr, "out_sample_rate", audioCodec->sample_rate, 0);
av_opt_set_sample_fmt(swr, "in_sample_fmt", AV_SAMPLE_FMT_FLTP, 0);
av_opt_set_sample_fmt(swr, "out_sample_fmt", AV_SAMPLE_FMT_S16, 0);
swr_init(swr);
...
// In your decoder loop, after decoding an audio frame:
AVFrame *audioFrame = ...;
int16_t* outputBuffer = ...;
swr_convert(&outputBuffer, audioFrame->nb_samples, audioFrame->extended_data, audioFrame->nb_samples);
Und das ist alles, was Sie tun müssen!
2. es in C von Hand tun (original Antwort, nicht empfohlen) Also in Ihrer Decodierschleife
, wenn Sie ein Audiopaket Sie es so dekodieren haben:
AVCodecContext *audioCodec; // init'd elsewhere
AVFrame *audioFrame; // init'd elsewhere
AVPacket packet; // init'd elsewhere
int16_t* outputBuffer; // init'd elsewhere
int out_size = 0;
...
int len = avcodec_decode_audio4(audioCodec, audioFrame, &out_size, &packet);
Und dann, wenn Sie einen vollständigen Rahmen von Audio haben, können Sie es ziemlich leicht umwandeln:
// Convert from AV_SAMPLE_FMT_FLTP to AV_SAMPLE_FMT_S16
int in_samples = audioFrame->nb_samples;
int in_linesize = audioFrame->linesize[0];
int i=0;
float* inputChannel0 = (float*)audioFrame->extended_data[0];
// Mono
if (audioFrame->channels==1) {
for (i=0 ; i<in_samples ; i++) {
float sample = *inputChannel0++;
if (sample<-1.0f) sample=-1.0f; else if (sample>1.0f) sample=1.0f;
outputBuffer[i] = (int16_t) (sample * 32767.0f);
}
}
// Stereo
else {
float* inputChannel1 = (float*)audioFrame->extended_data[1];
for (i=0 ; i<in_samples ; i++) {
outputBuffer[i*2] = (int16_t) ((*inputChannel0++) * 32767.0f);
outputBuffer[i*2+1] = (int16_t) ((*inputChannel1++) * 32767.0f);
}
}
// outputBuffer now contains 16-bit PCM!
ich habe für Klarheit, ein paar Dinge aus links ... th Die Einspannung im Mono-Pfad sollte idealerweise im Stereo-Pfad dupliziert werden. Und der Code kann einfach optimiert werden.
Haben Sie jemals die Antwort auf diese funktioniert? Bin genau gegenüber demselben Problem –