Comment convertir jstring
(JNI) en std::string
(c ++) avec utf8
caractères?
c'est mon code. cela a fonctionné avec des caractères non-utf8, mais c'est faux avec des caractères utf8.
std::string jstring2string(JNIEnv *env, jstring jStr){
const char *cstr = env->GetStringUTFChars(jStr, NULL);
std::string str = std::string(cstr);
env->ReleaseStringUTFChars(jStr, str);
return str;
}
Après beaucoup de temps pour trouver une solution. j'ai été trouvé un moyen:
En Java, un caractère Unicode sera codé avec 4 octets (utf16
). alors jstring
contiendra les caractères utf16
. std::string
en c ++ est essentiellement une chaîne d'octets, pas de caractères. Par conséquent, si nous voulons passer de jstring
de JNI
à c++
, convertissons utf16
en octets.
dans le document Fonctions JNI , nous avons 2 fonctions pour obtenir une chaîne à partir de jstring:
// Returns a pointer to the array of Unicode characters of the string.
// This pointer is valid until ReleaseStringchars() is called.
const jchar * GetStringChars(JNIEnv *env, jstring string, jboolean *isCopy);
// Returns a pointer to an array of bytes representing the string
// in modified UTF-8 encoding. This array is valid until it is released
// by ReleaseStringUTFChars().
const char * GetStringUTFChars(JNIEnv *env, jstring string, jboolean *isCopy);
GetStringUTFChars
, il retournera un modifié par utf8 .
GetStringChars
retournera jbyte *, nous lirons le code de caractère à partir de jbytes et le convertirons en caractère en c ++
voici ma solution (fonctionne bien avec les caractères ascii
et utf8
):
std::string jstring2string(JNIEnv *env, jstring jStr) {
if (!jStr)
return "";
const jclass stringClass = env->GetObjectClass(jStr);
const jmethodID getBytes = env->GetMethodID(stringClass, "getBytes", "(Ljava/lang/String;)[B");
const jbyteArray stringJbytes = (jbyteArray) env->CallObjectMethod(jStr, getBytes, env->NewStringUTF("UTF-8"));
size_t length = (size_t) env->GetArrayLength(stringJbytes);
jbyte* pBytes = env->GetByteArrayElements(stringJbytes, NULL);
std::string ret = std::string((char *)pBytes, length);
env->ReleaseByteArrayElements(stringJbytes, pBytes, JNI_ABORT);
env->DeleteLocalRef(stringJbytes);
env->DeleteLocalRef(stringClass);
return ret;
}
l'explication est ici:
http://www.club.cc.cmu.edu/~cmccabe/blog_jni_flaws.htmlhttps://developer.Android.com/training/articles/perf-jni (Région appels)
jsize
string_j2c(JNIEnv *env, jstring p, char *buffer) {
if (buffer != NULL) {
// Returns the length (the count of Unicode characters) of a
// Java string.
const jsize len = (*env).GetStringLength(p);
// Translates 'len' number of Unicode characters into modified
// UTF-8 encoding and place the result in the given buffer.
(*env).GetStringUTFRegion(p, 0, len, buffer);
// Returns JNI_TRUE when there is a pending exception;
// otherwise, returns JNI_FALSE.
const jboolean is_error = (*env).ExceptionCheck();
if (is_error == JNI_TRUE) {
return -1;
}
}
// Returns the length in bytes of the modified UTF-8
// representation of a string.
const jsize len = (*env).GetStringUTFLength(p);
return len;
}
const jsize len = string_j2c(env, p, NULL);
char buffer[len];
const jsize ret = string_j2c(env, p, buffer);
if (ret == -1) { // error
}
else {
__Android_log_print(Android_LOG_DEBUG, "Native", "%s", buffer);
}
jboolean isCopy;
const char *convertedValue = (env)->GetStringUTFChars(yourJStringParam, &isCopy);
Cela fonctionne très bien. Essaie.