J'ai extrait les dernières API Google Vision d'ici:
https://github.com/googlesamples/Android-vision
Et je l'exécute sur un appareil LG G2 avec KitKat. La seule modification que j'ai apportée concerne le minSdkVerion dans le fichier Gradle:
...
defaultConfig {
applicationId "com.google.Android.gms.samples.vision.face.multitracker"
minSdkVersion 19
...
Cependant, il ne se concentre pas. Comment puis-je le concentrer?
J'ai modifié le constructeur CameraSourcePreview (....) comme suit:
public CameraSourcePreview(Context context, AttributeSet attrs) {
super(context, attrs);
mContext = context;
mStartRequested = false;
mSurfaceAvailable = false;
mSurfaceView = new SurfaceView(context);
mSurfaceView.getHolder().addCallback(new SurfaceCallback());
addView(mSurfaceView);
mSurfaceView.setOnClickListener(new OnClickListener() {
@Override
public void onClick(View v) {
cameraFocus(mCameraSource, Camera.Parameters.FOCUS_MODE_CONTINUOUS_VIDEO);
}
});
}
private static boolean cameraFocus(@NonNull CameraSource cameraSource, @NonNull String focusMode) {
Field[] declaredFields = CameraSource.class.getDeclaredFields();
for (Field field : declaredFields) {
if (field.getType() == Camera.class) {
field.setAccessible(true);
try {
Camera camera = (Camera) field.get(cameraSource);
if (camera != null) {
Camera.Parameters params = camera.getParameters();
params.setFocusMode(focusMode);
camera.setParameters(params);
return true;
}
return false;
} catch (IllegalAccessException e) {
e.printStackTrace();
}
break;
}
}
return false;
}
Le conseil a été donné ici: https://github.com/googlesamples/Android-vision/issues/2
et la référence du code était ici: https://Gist.github.com/Gericop/7de0b9fdd7a444e53b5a
J'ai également dû modifier la méthode de dessin FaceTrackerFactory (Canvas ...):
@Override
public void draw(Canvas canvas) {
Face face = mFace;
if (face == null) {
return;
}
// Draws a circle at the position of the detected face, with the face's track id below.
float cx = translateX(face.getPosition().x + face.getWidth() / 2);
float cy = translateY(face.getPosition().y + face.getHeight() / 2);
canvas.drawCircle(cx, cy, FACE_POSITION_RADIUS, mFacePositionPaint);
canvas.drawText("id: " + getId(), cx + ID_X_OFFSET, cy + ID_Y_OFFSET, mIdPaint);
// Draws an oval around the face.
float xOffset = scaleX(face.getWidth() / 2.0f);
float yOffset = scaleY(face.getHeight() / 2.0f);
float left = cx - xOffset;
float top = cy - yOffset;
float right = cx + xOffset;
float bottom = cy + yOffset;
if (Build.VERSION.SDK_INT >= Build.VERSION_CODES.Lollipop) {
canvas.drawOval(left, top, right, bottom, mBoxPaint);
} else {
canvas.drawCircle(cx, cy, Math.max(xOffset, yOffset), mBoxPaint);
}
}
Une option de mise au point automatique est désormais disponible dans l'API officielle. Voir la méthode setAutoFocusEnabled ici:
De plus, nous avons ouvert la classe CameraSource, qui a également une méthode de mise au point automatique. Celui-ci vous permet de définir un mode de mise au point spécifique par opposition au mode "vidéo continue" que l'API officielle utilise par défaut:
Cela a fonctionné pour moi en utilisant Google Play Services 8.4: "com.google.Android.gms: play-services: 8.4.0"
cameraSource = new CameraSource.Builder(this, detector).setRequestedPreviewSize(640, 480).setAutoFocusEnabled(true).build();