J'essaie de capturer une vidéo en utilisant la classe SCameraCaptureSession. En utilisant une fonction de cette classe - setRepeatingRequest (qui décrit ici ), j'obtiens le message d'erreur suivant:
Java.lang.IllegalArgumentException: CaptureRequest contient une surface d'entrée/sortie non configurée!
Comme je l'ai remarqué, le problème se produit à cause de quelque chose dans l'objet Surface de MediaRecorder. Cependant, cela fonctionne très bien avec la version Android de plus de 8 ans et l’incident ne se produit que sur les appareils Samsung fonctionnant sous Android 8. Aucune recherche Google n’a révélé quoi que ce soit d’utile à propos de cet accident.
Quelqu'un at-il des informations? Comment faire en sorte que la surface de MediaRecorder fonctionne correctement sur un périphérique tel que je l'ai mentionné?
Remarque importante: La capture de la vidéo fonctionne super sur toutes les versions d'Android antérieures à 8 !!!
On dirait qu'il y a un problème avec la configuration de la surface provenant de MediaRecorder. Si vous passez une surface persistante personnalisée, cela devrait fonctionner.
Instanciez une surface en appelant MediaCodec.createPersistentInputSurface ()
Passez-le en utilisant mediaRecorder.setInputSurface (yourSurface);
appelez yourSurface.release () après avoir cessé d’utiliser cette surface.
REMARQUE: N'utilisez pas mediaRecorder.getSurface () si vous décidez d'utiliser cette approche.
RÉFÉRENCES:
MediaRecorder: MediaRecorder - Docs Android
MediaCodec: MediaCodec - Docs Android
J'ai eu la même exception et j'ai résolu mon cas… .. La cause fondamentale de mon cas est que j'avais recréé Surface de TextureView… .. Lorsque je l'ai changé pour ne pas recréer Surface, l'exception a disparu.
Mon code fonctionne aussi bien avant Android 8.0
Ma caméra d'initialisation est comme suit.
CameraDevice mCameraDevice;
CameraCaptureSession mCameraCaptureSession;
CaptureRequest mCaptureRequest;
Surface mTextureViewSurface;
public void updateCameraState(boolean run) {
if (run) {
if (mTextureView == null || !mTextureView.isAvailable()) {
// wait until mTextureView is available
// then call updateCameraState() again via SurfaceTextureListener
return;
}
if (mCameraDevice == null) {
// open camera and wait until mCameraDevice is obtained.
// then call updateCameraState() again via CameraDevice.StateCallback
mCameraManager.openCamera(...);
return;
}
if (mCameraCaptureSession == null) {
// createCaptureSession and wait until mCameraCaptureSession is obtained.
// then call updateCameraState() again via CameraCaptureSession.StateCallback
mTextureViewSurface = new Surface(texture);
List<Surface> surfaces = Arrays.asList(mTextureViewSurface, mImageReader.getSurface());
mCameraDevice.createCaptureSession(surfaces, mSessionStateCallback, sHandler);
return;
}
if (mCaptureRequest == null) {
CaptureRequest.Builder builder = mCameraCaptureSession.getDevice().createCaptureRequest(CameraDevice.TEMPLATE_PREVIEW);
/* Put some values into builder */
// *************************************************************************
// POINT: In my old code, It re-create Surface
// *************************************************************************
// Surface surface = new Surface(texture);
// builder.addTarget(surface);
builder.addTarget(mTextureViewSurface);
mCameraCaptureSession.setRepeatingRequest(builder.build(), mCaptureCallback, sHandler);
}
// fin
} else {
if (mCaptureRequest != null) {
mCaptureRequest = null;
}
// *************************************************************************
// POINT: I do not know release() is needed. But I add it here.
// *************************************************************************
if (mTextureViewSurface != null) {
mTextureViewSurface.release();
mTextureViewSurface = null;
}
if (mCameraCaptureSession != null) {
mCameraCaptureSession.close();
mCameraCaptureSession = null;
}
if (mCameraDevice != null) {
mCameraDevice.close();
mCameraDevice = null;
}
}
}
J'avais les mêmes symptômes… .. J'ai résolu d'utiliser la classe 'SurfaceView' .__, mais je n'ai pas utilisé Android.hardware.camera2.
Parties résolues de codes.
@Override
public void onPreviewFrame(byte[] data, Camera camera) {
// encoding data
encoding(data) ;
}
/**
* byte data encoding
* @param data
*/
private void encoding (byte[] data) {
// api 21 미만에 대해서 필요
ByteBuffer[] inputBuffers = this.mediaCodec.getInputBuffers();
ByteBuffer[] outputBuffers = this.mediaCodec.getOutputBuffers();
int inputBufferIndex = this.mediaCodec.dequeueInputBuffer(TIMEOUT_USEC/* wait time, nagative value is infinite */);
// data write 가능 할 경우
if (inputBufferIndex >= 0) {
// data null (마지막 데이터)
int length = 0, flags = MediaCodec.BUFFER_FLAG_END_OF_STREAM;
if (data != null) {
ByteBuffer inputBuffer = null;
if (CameraUtils.isCamera2()) inputBuffer = this.mediaCodec.getInputBuffer(inputBufferIndex);
else inputBuffer = inputBuffers[inputBufferIndex];
inputBuffer.clear();
inputBuffer.put(data);
length = data.length;
flags = 0;
}
/*
- index : dequeueInputBuffer 에서 return 받은 index 번호를 넣습니다.
- offset : 항상 0이겠지만 Buffer에 채워넣은 데이터의 시작 점을 지정할 수 있습니다.
- size : Buffer에 채워넣은 데이터 사이즈 정보
- presentationTimeUs : 디코딩의 경우 Play 할 데이터의 시간(마이크로 초)
- flags : 읽은 버퍼의 정보가 설정값인지 BUFFER_FLAG_CODEC_CONFIG, 마지막 데이터인지BUFFER_FLAG_END_OF_STREAM에 대한 정보를 초기화 할 수 있습니다.
대부분은 0을 채워넣고 마지막 데이터를 알리기 위해서는 BUFFER_FLAGS_END_OF_STREAM을 넣습니다.
*/
this.mediaCodec.queueInputBuffer(inputBufferIndex, 0, length, computePresentationTimeNsec(), flags);
}
MediaCodec.BufferInfo bufferInfo = new MediaCodec.BufferInfo();
int outputBufferIndex = this.mediaCodec.dequeueOutputBuffer(bufferInfo, TIMEOUT_USEC/* wait time, nagative value is infinite */);
switch (outputBufferIndex) {
/*
MediaCodec.INFO_OUTPUT_BUFFERS_CHANGED
- Buffer 정보가 1번 변경되게 됩니다.
- API 21인 Lollipop 부터는 이 @deprecated 되었기에 불필요하지만 이전 API에서는 꼭 필요한 정보입니다. 이게 호출되면 처음에 생성한 ByteBuffer[] 배열의 변화가 일어나게 됩니다.
*/
case MediaCodec.INFO_OUTPUT_BUFFERS_CHANGED:
Log.i(TAG, "INFO_OUTPUT_BUFFERS_CHANGED");
outputBuffers = this.mediaCodec.getOutputBuffers();
break;
/*MediaCodec.INFO_OUTPUT_FORMAT_CHANGED
- 처음에 생성하였든 MediaFormat을 기억하시는지요. 그 MediaFormat이 변경된 정보를 알려주게됩니다.
- 이 경우는 Encoder에서만 주로 사용하고, 디코더에서는 사용할 일은 없습니다.
*/
case MediaCodec.INFO_OUTPUT_FORMAT_CHANGED:
if (this.isMuxerStart) throw new RuntimeException("Format changed twice");
Log.d(TAG, "INFO_OUTPUT_FORMAT_CHANGED format : " + this.mediaCodec.getOutputFormat());
this.trackId = this.mediaMuxer.addTrack(this.mediaCodec.getOutputFormat());
this.mediaMuxer.start();
this.isMuxerStart = true;
break;
/*MediaCodec.INFO_TRY_AGAIN_LATER
- 이 함수가 호출되는 경우라면 사실 무시하여도 됩니다.
*/
case MediaCodec.INFO_TRY_AGAIN_LATER:
break;
/*outputBufferIndex >= 0
- 이 경우에 실제 디코딩 된 데이터가 들어오는 경우에 해당됩니다.
*/
default:
while (outputBufferIndex >= 0 && this.mediaCodec != null && this.mediaMuxer != null) {
ByteBuffer outputBuffer = null;
if (CameraUtils.isCamera2()) outputBuffer = this.mediaCodec.getOutputBuffer(outputBufferIndex);
else outputBuffer = outputBuffers[outputBufferIndex];
// null exception
if (outputBuffer == null)
throw new RuntimeException("EncoderOutputBuffer " + outputBuffer + " was NULL");
if ((bufferInfo.flags & MediaCodec.BUFFER_FLAG_CODEC_CONFIG) != 0) {
// The codec config data was pulled out and fed to the muxer when we got
// the INFO_OUTPUT_FORMAT_CHANGED status. Ignore it.
bufferInfo.size = 0;
}
if (bufferInfo.size >= 0) {
if (!this.isMuxerStart) throw new RuntimeException("MediaMuxer hasn't started");
// 프레임의 타임스탬프 작성
bufferInfo.presentationTimeUs = computePresentationTimeNsec();
this.prevTime = bufferInfo.presentationTimeUs;
this.mediaMuxer.writeSampleData(this.trackId, outputBuffer, bufferInfo);
}
this.mediaCodec.releaseOutputBuffer(outputBufferIndex, false/* true is surface init */);
outputBufferIndex = this.mediaCodec.dequeueOutputBuffer(bufferInfo, TIMEOUT_USEC/* wait time, nagative value is infinite */);
// end of frame
if ((bufferInfo.flags & MediaCodec.BUFFER_FLAG_END_OF_STREAM) != 0) {
// release
releaseRecorder();
// 저장 완료
onCompleteEncoding(recordPath);
stopEncodingThread();
return;
}
}
break;
}
}
J'avais ce même problème que le vôtre. Je ne l’ai fait fonctionner qu’après avoir utilisé SCameraProcessor
dans le SCamera SDK de Samsung.
Je vous recommande de télécharger l'exemple APK qu'ils proposent et de regarder de plus près, mais voici un extrait avec les parties principales auxquelles vous devez accorder plus d'attention:
Installer:
SCamera sCamera = new SCamera();
sCamera.initialize(this);
...
SCameraProcessorManager processorManager = sCamera.getSCameraProcessorManager();
SCameraEffectProcessor processor = processorManager
.createProcessor(SCameraProcessorManager.PROCESSOR_TYPE_EFFECT);
...
processor.initialize();
...
// Carry out the opening process of the camera device here.
...
processor.setOutputSurface(outputSurface);
Surface cameraSurface = processor.getInputSurface();
// 'cameraSurface' above must then be added as a target to your
// SCaptureRequest.Builder and given as part of the surfaces list
// to have configured when calling SCameraDevice.createCaptureRequest().
Commencer l'enregistrement:
// After setting up your MediaRecorder object...
processor.setRecordingSurface(mediaRecorder.getSurface());
mediaRecorder.start();
Arrête d'enregistrer:
processor.setRecordingSurface(null);
mediaRecorder.stop();
mediaRecorder.reset();
Références:
J'espère que ça aide!