Determinar la codificación de una cadena en C #


127

¿Hay alguna forma de determinar la codificación de una cadena en C #?

Digamos que tengo una cadena de nombre de archivo, pero no sé si está codificada en Unicode UTF-16 o la codificación predeterminada del sistema, ¿cómo puedo averiguarlo?


No puede "codificar" en Unicode. Y no hay forma de determinar automáticamente la codificación de una cadena determinada, sin ninguna otra información previa.
Nicolas Dumazet

55
para ser más claro tal vez: codifica puntos de código Unicode en cadenas de bytes de un conjunto de caracteres utilizando un esquema de "codificación" (utf- , iso- , big5, shift-jis, etc.), y decodifica cadenas de bytes desde un juego de caracteres a Unicode. No codifica cadenas de bytes en Unicode. No decodifica Unicode en cadenas de bytes.
Nicolas Dumazet

13
@NicDunZ: la codificación en sí (en particular UTF-16) también se denomina comúnmente "Unicode". Bien o mal, así es la vida. Incluso en .NET, mire Encoding.Unicode, que significa UTF-16.
Marc Gravell

2
oh bueno, no sabía que .NET era tan engañoso. Parece un hábito terrible de aprender. Y lo siento @krebstar, esa no era mi intención (sigo pensando que su pregunta editada tiene mucho más sentido ahora que antes)
Nicolas Dumazet

1
@Nicdumz # 1: Hay una manera de determinar probabilísticamente qué codificación usar. Mire lo que hace IE (y ahora también FF con Vista - Codificación de caracteres - Detección automática) para eso: intenta una codificación y ve si posiblemente está "bien escrito <ponga un nombre de idioma aquí>" o cámbielo e intente nuevamente . ¡Vamos, esto puede ser divertido!
SnippyHolloW

Respuestas:


31

Echa un vistazo a Utf8Checker, es una clase simple que hace exactamente esto en código administrado puro. http://utf8checker.codeplex.com

Aviso: como ya se señaló, "determinar la codificación" solo tiene sentido para las secuencias de bytes. Si tiene una cadena, ya está codificada por alguien que ya conocía o adivinó la codificación para obtener la cadena en primer lugar.


Si la cadena es una decodificación incorrecta realizada con una codificación simplemente de 8 bits y tiene la codificación utilizada para decodificarla, normalmente puede recuperar los bytes sin ningún daño.
Nyerguds

57

El siguiente código tiene las siguientes características:

  1. Detección o intento de detección de UTF-7, UTF-8/16/32 (bom, no bom, little & big endian)
  2. Retrocede a la página de códigos predeterminada local si no se encuentra la codificación Unicode.
  3. Detecta (con alta probabilidad) archivos Unicode con falta de BOM / firma
  4. Busca charset = xyz y encoding = xyz dentro del archivo para ayudar a determinar la codificación.
  5. Para guardar el procesamiento, puede 'probar' el archivo (número definible de bytes).
  6. Se devuelve el archivo de texto codificado y decodificado.
  7. Solución puramente basada en bytes para eficiencia

Como han dicho otros, ninguna solución puede ser perfecta (y ciertamente no se puede diferenciar fácilmente entre las diversas codificaciones ASCII extendidas de 8 bits que se usan en todo el mundo), pero podemos obtener "lo suficientemente bueno", especialmente si el desarrollador también presenta al usuario una lista de codificaciones alternativas como se muestra aquí: ¿Cuál es la codificación más común de cada idioma?

Puede encontrar una lista completa de codificaciones utilizando Encoding.GetEncodings();

// Function to detect the encoding for UTF-7, UTF-8/16/32 (bom, no bom, little
// & big endian), and local default codepage, and potentially other codepages.
// 'taster' = number of bytes to check of the file (to save processing). Higher
// value is slower, but more reliable (especially UTF-8 with special characters
// later on may appear to be ASCII initially). If taster = 0, then taster
// becomes the length of the file (for maximum reliability). 'text' is simply
// the string with the discovered encoding applied to the file.
public Encoding detectTextEncoding(string filename, out String text, int taster = 1000)
{
    byte[] b = File.ReadAllBytes(filename);

    //////////////// First check the low hanging fruit by checking if a
    //////////////// BOM/signature exists (sourced from http://www.unicode.org/faq/utf_bom.html#bom4)
    if (b.Length >= 4 && b[0] == 0x00 && b[1] == 0x00 && b[2] == 0xFE && b[3] == 0xFF) { text = Encoding.GetEncoding("utf-32BE").GetString(b, 4, b.Length - 4); return Encoding.GetEncoding("utf-32BE"); }  // UTF-32, big-endian 
    else if (b.Length >= 4 && b[0] == 0xFF && b[1] == 0xFE && b[2] == 0x00 && b[3] == 0x00) { text = Encoding.UTF32.GetString(b, 4, b.Length - 4); return Encoding.UTF32; }    // UTF-32, little-endian
    else if (b.Length >= 2 && b[0] == 0xFE && b[1] == 0xFF) { text = Encoding.BigEndianUnicode.GetString(b, 2, b.Length - 2); return Encoding.BigEndianUnicode; }     // UTF-16, big-endian
    else if (b.Length >= 2 && b[0] == 0xFF && b[1] == 0xFE) { text = Encoding.Unicode.GetString(b, 2, b.Length - 2); return Encoding.Unicode; }              // UTF-16, little-endian
    else if (b.Length >= 3 && b[0] == 0xEF && b[1] == 0xBB && b[2] == 0xBF) { text = Encoding.UTF8.GetString(b, 3, b.Length - 3); return Encoding.UTF8; } // UTF-8
    else if (b.Length >= 3 && b[0] == 0x2b && b[1] == 0x2f && b[2] == 0x76) { text = Encoding.UTF7.GetString(b,3,b.Length-3); return Encoding.UTF7; } // UTF-7


    //////////// If the code reaches here, no BOM/signature was found, so now
    //////////// we need to 'taste' the file to see if can manually discover
    //////////// the encoding. A high taster value is desired for UTF-8
    if (taster == 0 || taster > b.Length) taster = b.Length;    // Taster size can't be bigger than the filesize obviously.


    // Some text files are encoded in UTF8, but have no BOM/signature. Hence
    // the below manually checks for a UTF8 pattern. This code is based off
    // the top answer at: /programming/6555015/check-for-invalid-utf8
    // For our purposes, an unnecessarily strict (and terser/slower)
    // implementation is shown at: /programming/1031645/how-to-detect-utf-8-in-plain-c
    // For the below, false positives should be exceedingly rare (and would
    // be either slightly malformed UTF-8 (which would suit our purposes
    // anyway) or 8-bit extended ASCII/UTF-16/32 at a vanishingly long shot).
    int i = 0;
    bool utf8 = false;
    while (i < taster - 4)
    {
        if (b[i] <= 0x7F) { i += 1; continue; }     // If all characters are below 0x80, then it is valid UTF8, but UTF8 is not 'required' (and therefore the text is more desirable to be treated as the default codepage of the computer). Hence, there's no "utf8 = true;" code unlike the next three checks.
        if (b[i] >= 0xC2 && b[i] <= 0xDF && b[i + 1] >= 0x80 && b[i + 1] < 0xC0) { i += 2; utf8 = true; continue; }
        if (b[i] >= 0xE0 && b[i] <= 0xF0 && b[i + 1] >= 0x80 && b[i + 1] < 0xC0 && b[i + 2] >= 0x80 && b[i + 2] < 0xC0) { i += 3; utf8 = true; continue; }
        if (b[i] >= 0xF0 && b[i] <= 0xF4 && b[i + 1] >= 0x80 && b[i + 1] < 0xC0 && b[i + 2] >= 0x80 && b[i + 2] < 0xC0 && b[i + 3] >= 0x80 && b[i + 3] < 0xC0) { i += 4; utf8 = true; continue; }
        utf8 = false; break;
    }
    if (utf8 == true) {
        text = Encoding.UTF8.GetString(b);
        return Encoding.UTF8;
    }


    // The next check is a heuristic attempt to detect UTF-16 without a BOM.
    // We simply look for zeroes in odd or even byte places, and if a certain
    // threshold is reached, the code is 'probably' UF-16.          
    double threshold = 0.1; // proportion of chars step 2 which must be zeroed to be diagnosed as utf-16. 0.1 = 10%
    int count = 0;
    for (int n = 0; n < taster; n += 2) if (b[n] == 0) count++;
    if (((double)count) / taster > threshold) { text = Encoding.BigEndianUnicode.GetString(b); return Encoding.BigEndianUnicode; }
    count = 0;
    for (int n = 1; n < taster; n += 2) if (b[n] == 0) count++;
    if (((double)count) / taster > threshold) { text = Encoding.Unicode.GetString(b); return Encoding.Unicode; } // (little-endian)


    // Finally, a long shot - let's see if we can find "charset=xyz" or
    // "encoding=xyz" to identify the encoding:
    for (int n = 0; n < taster-9; n++)
    {
        if (
            ((b[n + 0] == 'c' || b[n + 0] == 'C') && (b[n + 1] == 'h' || b[n + 1] == 'H') && (b[n + 2] == 'a' || b[n + 2] == 'A') && (b[n + 3] == 'r' || b[n + 3] == 'R') && (b[n + 4] == 's' || b[n + 4] == 'S') && (b[n + 5] == 'e' || b[n + 5] == 'E') && (b[n + 6] == 't' || b[n + 6] == 'T') && (b[n + 7] == '=')) ||
            ((b[n + 0] == 'e' || b[n + 0] == 'E') && (b[n + 1] == 'n' || b[n + 1] == 'N') && (b[n + 2] == 'c' || b[n + 2] == 'C') && (b[n + 3] == 'o' || b[n + 3] == 'O') && (b[n + 4] == 'd' || b[n + 4] == 'D') && (b[n + 5] == 'i' || b[n + 5] == 'I') && (b[n + 6] == 'n' || b[n + 6] == 'N') && (b[n + 7] == 'g' || b[n + 7] == 'G') && (b[n + 8] == '='))
            )
        {
            if (b[n + 0] == 'c' || b[n + 0] == 'C') n += 8; else n += 9;
            if (b[n] == '"' || b[n] == '\'') n++;
            int oldn = n;
            while (n < taster && (b[n] == '_' || b[n] == '-' || (b[n] >= '0' && b[n] <= '9') || (b[n] >= 'a' && b[n] <= 'z') || (b[n] >= 'A' && b[n] <= 'Z')))
            { n++; }
            byte[] nb = new byte[n-oldn];
            Array.Copy(b, oldn, nb, 0, n-oldn);
            try {
                string internalEnc = Encoding.ASCII.GetString(nb);
                text = Encoding.GetEncoding(internalEnc).GetString(b);
                return Encoding.GetEncoding(internalEnc);
            }
            catch { break; }    // If C# doesn't recognize the name of the encoding, break.
        }
    }


    // If all else fails, the encoding is probably (though certainly not
    // definitely) the user's local codepage! One might present to the user a
    // list of alternative encodings as shown here: /programming/8509339/what-is-the-most-common-encoding-of-each-language
    // A full list can be found using Encoding.GetEncodings();
    text = Encoding.Default.GetString(b);
    return Encoding.Default;
}

Esto funciona para los archivos .eml cirílicos (y probablemente todos los demás) (del encabezado charset del correo)
Nime Cloud

UTF-7 no se puede decodificar tan ingenuamente, en realidad; su preámbulo completo es más largo e incluye dos bits del primer carácter. El sistema .Net parece no tener ningún soporte para el sistema de preámbulos de UTF7.
Nyerguds

¡Funcionó para mí cuando ninguno de los otros métodos que revisé no ayudó! Gracias Dan.
Tejasvi Hegde

Gracias por tu solución. Lo estoy usando para determinar la codificación en archivos de fuentes completamente diferentes. Sin embargo, lo que encontré es que si uso un valor de prueba demasiado bajo, el resultado podría ser incorrecto. (por ejemplo, el código estaba devolviendo Encoding.Default para un archivo UTF8, a pesar de que estaba usando b.Length / 10 como mi catador). Entonces me pregunté, ¿cuál es el argumento para usar un catador que sea menor que b.Length? Parece que solo puedo concluir que Encoding.Default es aceptable si y solo si he escaneado todo el archivo.
Sean

@Sean: es para cuando la velocidad importa más que la precisión, especialmente para archivos que pueden tener docenas o cientos de megabytes de tamaño. En mi experiencia, incluso un valor de prueba bajo puede producir resultados correctos ~ 99.9% del tiempo. Tu experiencia puede diferir.
Dan W

33

Depende de dónde proviene la cadena '. Una cadena .NET es Unicode (UTF-16). La única forma en que podría ser diferente si, por ejemplo, lee los datos de una base de datos en una matriz de bytes.

Este artículo de CodeProject podría ser de interés: Detectar codificación para texto entrante y saliente

Las cadenas de Jon Skeet en C # y .NET son una excelente explicación de las cadenas .NET.


Venía de una aplicación no Unicode C ++ .. El artículo CodeProject parece un poco demasiado complejo, sin embargo, parece que hacer lo que yo quiero hacer .. Gracias ..
krebstar

18

Sé que esto es un poco tarde, pero para ser claros:

Una cadena realmente no tiene codificación ... en .NET la cadena es una colección de objetos char. Esencialmente, si es una cadena, ya ha sido decodificada.

Sin embargo, si está leyendo el contenido de un archivo, que está hecho de bytes, y desea convertirlo en una cadena, entonces se debe usar la codificación del archivo.

.NET incluye clases de codificación y decodificación para: ASCII, UTF7, UTF8, UTF32 y más.

La mayoría de estas codificaciones contienen ciertas marcas de orden de bytes que se pueden usar para distinguir qué tipo de codificación se usó.

La clase .NET System.IO.StreamReader puede determinar la codificación utilizada dentro de una secuencia, leyendo esas marcas de orden de bytes;

Aquí hay un ejemplo:

    /// <summary>
    /// return the detected encoding and the contents of the file.
    /// </summary>
    /// <param name="fileName"></param>
    /// <param name="contents"></param>
    /// <returns></returns>
    public static Encoding DetectEncoding(String fileName, out String contents)
    {
        // open the file with the stream-reader:
        using (StreamReader reader = new StreamReader(fileName, true))
        {
            // read the contents of the file into a string
            contents = reader.ReadToEnd();

            // return the encoding.
            return reader.CurrentEncoding;
        }
    }

3
Esto no funcionará para detectar UTF 16 sin la lista de materiales. Tampoco volverá a la página de códigos predeterminada local del usuario si no detecta ninguna codificación Unicode. Puede solucionar este último agregando Encoding.Defaultcomo parámetro StreamReader, pero luego el código no detectará UTF8 sin la lista de materiales.
Dan W

1
@DanW: ¿Se ha hecho UTF-16 sin BOM realmente? Nunca usaría eso; está destinado a ser un desastre abrirse en casi cualquier cosa.
Nyerguds

11

Otra opción, muy tarde en llegar, lo siento:

http://www.architectshack.com/TextFileEncodingDetector.ashx

Esta pequeña clase de C # solo usa BOMS si está presente, intenta detectar automáticamente las posibles codificaciones Unicode de lo contrario, y retrocede si ninguna de las codificaciones Unicode es posible o probable.

Parece que UTF8Checker al que se hace referencia anteriormente hace algo similar, pero creo que esto tiene un alcance ligeramente más amplio: en lugar de solo UTF8, también busca otras posibles codificaciones Unicode (UTF-16 LE o BE) a las que les puede faltar una lista de materiales.

¡Espero que esto ayude a alguien!


Código bastante bueno, resolvió mi problema de detección de codificación :)
CARLOS LOTH

9

El paquete SimpleHelpers.FileEncoding Nuget envuelve un puerto C # del Mozilla Universal Charset Detector en una API muy simple:

var encoding = FileEncoding.DetectFileEncoding(txtFile);

esto debería estar más arriba, proporciona una solución muy simple: deja que otros hagan el trabajo: D
buddybubble

Esta biblioteca es GPL
A br

¿Lo es? Veo una licencia MIT y utiliza un componente de licencia triple (UDE), uno de los cuales es MPL. He estado tratando de determinar si UDE era problemático para un producto patentado, por lo que si tiene más información, sería muy apreciado.
Simon Woods

5

Mi solución es usar cosas integradas con algunos fallos.

Elegí la estrategia de una respuesta a otra pregunta similar sobre stackoverflow pero no puedo encontrarla ahora.

Primero verifica la lista de materiales utilizando la lógica incorporada en StreamReader, si hay una lista de materiales, la codificación será diferente a Encoding.Default y debemos confiar en ese resultado.

Si no, verifica si la secuencia de bytes es una secuencia UTF-8 válida. si es así, adivinará UTF-8 como la codificación, y si no, nuevamente, el resultado será la codificación ASCII predeterminada.

static Encoding getEncoding(string path) {
    var stream = new FileStream(path, FileMode.Open);
    var reader = new StreamReader(stream, Encoding.Default, true);
    reader.Read();

    if (reader.CurrentEncoding != Encoding.Default) {
        reader.Close();
        return reader.CurrentEncoding;
    }

    stream.Position = 0;

    reader = new StreamReader(stream, new UTF8Encoding(false, true));
    try {
        reader.ReadToEnd();
        reader.Close();
        return Encoding.UTF8;
    }
    catch (Exception) {
        reader.Close();
        return Encoding.Default;
    }
}

3

Nota: este fue un experimento para ver cómo la codificación UTF-8 funcionaba internamente. La solución ofrecida por vilicvane , para usar un UTF8Encodingobjeto que se inicializa para lanzar una excepción en la falla de decodificación, es mucho más simple y básicamente hace lo mismo.


Escribí este fragmento de código para diferenciar entre UTF-8 y Windows-1252. Sin embargo, no debe usarse para archivos de texto gigantescos, ya que carga todo en la memoria y lo escanea por completo. Lo usé para archivos de subtítulos .srt, solo para poder guardarlos nuevamente en la codificación en la que se cargaron.

La codificación dada a la función como referencia debe ser la codificación alternativa de 8 bits que se utilizará en caso de que se detecte que el archivo no es válido UTF-8; generalmente, en sistemas Windows, este será Windows-1252. Sin embargo, esto no hace nada lujoso como verificar los rangos de ascii válidos reales, y no detecta UTF-16 incluso en la marca de orden de bytes.

La teoría detrás de la detección bit a bit se puede encontrar aquí: https://ianthehenry.com/2015/1/17/decoding-utf-8/

Básicamente, el rango de bits del primer byte determina cuántos después forman parte de la entidad UTF-8. Estos bytes posteriores siempre están en el mismo rango de bits.

/// <summary>
/// Reads a text file, and detects whether its encoding is valid UTF-8 or ascii.
/// If not, decodes the text using the given fallback encoding.
/// Bit-wise mechanism for detecting valid UTF-8 based on
/// https://ianthehenry.com/2015/1/17/decoding-utf-8/
/// </summary>
/// <param name="docBytes">The bytes read from the file.</param>
/// <param name="encoding">The default encoding to use as fallback if the text is detected not to be pure ascii or UTF-8 compliant. This ref parameter is changed to the detected encoding.</param>
/// <returns>The contents of the read file, as String.</returns>
public static String ReadFileAndGetEncoding(Byte[] docBytes, ref Encoding encoding)
{
    if (encoding == null)
        encoding = Encoding.GetEncoding(1252);
    Int32 len = docBytes.Length;
    // byte order mark for utf-8. Easiest way of detecting encoding.
    if (len > 3 && docBytes[0] == 0xEF && docBytes[1] == 0xBB && docBytes[2] == 0xBF)
    {
        encoding = new UTF8Encoding(true);
        // Note that even when initialising an encoding to have
        // a BOM, it does not cut it off the front of the input.
        return encoding.GetString(docBytes, 3, len - 3);
    }
    Boolean isPureAscii = true;
    Boolean isUtf8Valid = true;
    for (Int32 i = 0; i < len; ++i)
    {
        Int32 skip = TestUtf8(docBytes, i);
        if (skip == 0)
            continue;
        if (isPureAscii)
            isPureAscii = false;
        if (skip < 0)
        {
            isUtf8Valid = false;
            // if invalid utf8 is detected, there's no sense in going on.
            break;
        }
        i += skip;
    }
    if (isPureAscii)
        encoding = new ASCIIEncoding(); // pure 7-bit ascii.
    else if (isUtf8Valid)
        encoding = new UTF8Encoding(false);
    // else, retain given encoding. This should be an 8-bit encoding like Windows-1252.
    return encoding.GetString(docBytes);
}

/// <summary>
/// Tests if the bytes following the given offset are UTF-8 valid, and
/// returns the amount of bytes to skip ahead to do the next read if it is.
/// If the text is not UTF-8 valid it returns -1.
/// </summary>
/// <param name="binFile">Byte array to test</param>
/// <param name="offset">Offset in the byte array to test.</param>
/// <returns>The amount of bytes to skip ahead for the next read, or -1 if the byte sequence wasn't valid UTF-8</returns>
public static Int32 TestUtf8(Byte[] binFile, Int32 offset)
{
    // 7 bytes (so 6 added bytes) is the maximum the UTF-8 design could support,
    // but in reality it only goes up to 3, meaning the full amount is 4.
    const Int32 maxUtf8Length = 4;
    Byte current = binFile[offset];
    if ((current & 0x80) == 0)
        return 0; // valid 7-bit ascii. Added length is 0 bytes.
    Int32 len = binFile.Length;
    for (Int32 addedlength = 1; addedlength < maxUtf8Length; ++addedlength)
    {
        Int32 fullmask = 0x80;
        Int32 testmask = 0;
        // This code adds shifted bits to get the desired full mask.
        // If the full mask is [111]0 0000, then test mask will be [110]0 0000. Since this is
        // effectively always the previous step in the iteration I just store it each time.
        for (Int32 i = 0; i <= addedlength; ++i)
        {
            testmask = fullmask;
            fullmask += (0x80 >> (i+1));
        }
        // figure out bit masks from level
        if ((current & fullmask) == testmask)
        {
            if (offset + addedlength >= len)
                return -1;
            // Lookahead. Pattern of any following bytes is always 10xxxxxx
            for (Int32 i = 1; i <= addedlength; ++i)
            {
                if ((binFile[offset + i] & 0xC0) != 0x80)
                    return -1;
            }
            return addedlength;
        }
    }
    // Value is greater than the maximum allowed for utf8. Deemed invalid.
    return -1;
}

Además, no hay una última elsedeclaración después if ((current & 0xE0) == 0xC0) { ... } else if ((current & 0xF0) == 0xE0) { ... } else if ((current & 0xF0) == 0xE0) { ... } else if ((current & 0xF8) == 0xF0) { ... }. Supongo que elseel caso sería UTF-8 no válido: isUtf8Valid = false;. ¿Lo harías?
Hal

@hal Ah, es cierto ... Desde entonces actualicé mi propio código con un sistema más general (y más avanzado) que usa un bucle que sube hasta 3 pero técnicamente se puede cambiar para que siga en bucle (las especificaciones no son claras en eso ; creo que es posible expandir UTF-8 hasta 6 bytes agregados, pero solo se usan 3 en las implementaciones actuales), por lo que no actualicé este código.
Nyerguds

@hal Lo actualicé a mi nueva solución. El principio sigue siendo el mismo, pero las máscaras de bits se crean y verifican en un bucle en lugar de todas escritas explícitamente en el código.
Nyerguds

1

Encontré una nueva biblioteca en GitHub: CharsetDetector / UTF-unknown

Constructor del detector de caracteres en C # - .NET Core 2-3, .NET estándar 1-2 y .NET 4+

también es un puerto del Detector de juego de caracteres universal Mozilla basado en otros repositorios.

CharsetDetector / UTF-unknown tiene una clase llamadaCharsetDetector .

CharsetDetector contiene algunos métodos de detección de codificación estática:

  • CharsetDetector.DetectFromFile()
  • CharsetDetector.DetectFromStream()
  • CharsetDetector.DetectFromBytes()

el resultado detectado está en la clase DetectionResulttiene un atributo Detectedque es una instancia de la clase DetectionDetailcon los siguientes atributos:

  • EncodingName
  • Encoding
  • Confidence

A continuación se muestra un ejemplo para mostrar el uso:

// Program.cs
using System;
using System.Text;
using UtfUnknown;

namespace ConsoleExample
{
    public class Program
    {
        public static void Main(string[] args)
        {
            string filename = @"E:\new-file.txt";
            DetectDemo(filename);
        }

        /// <summary>
        /// Command line example: detect the encoding of the given file.
        /// </summary>
        /// <param name="filename">a filename</param>
        public static void DetectDemo(string filename)
        {
            // Detect from File
            DetectionResult result = CharsetDetector.DetectFromFile(filename);
            // Get the best Detection
            DetectionDetail resultDetected = result.Detected;

            // detected result may be null.
            if (resultDetected != null)
            {
                // Get the alias of the found encoding
                string encodingName = resultDetected.EncodingName;
                // Get the System.Text.Encoding of the found encoding (can be null if not available)
                Encoding encoding = resultDetected.Encoding;
                // Get the confidence of the found encoding (between 0 and 1)
                float confidence = resultDetected.Confidence;

                if (encoding != null)
                {
                    Console.WriteLine($"Detection completed: {filename}");
                    Console.WriteLine($"EncodingWebName: {encoding.WebName}{Environment.NewLine}Confidence: {confidence}");
                }
                else
                {
                    Console.WriteLine($"Detection completed: {filename}");
                    Console.WriteLine($"(Encoding is null){Environment.NewLine}EncodingName: {encodingName}{Environment.NewLine}Confidence: {confidence}");
                }
            }
            else
            {
                Console.WriteLine($"Detection failed: {filename}");
            }
        }
    }
}

captura de pantalla de resultado de ejemplo: ingrese la descripción de la imagen aquí

Al usar nuestro sitio, usted reconoce que ha leído y comprende nuestra Política de Cookies y Política de Privacidad.
Licensed under cc by-sa 3.0 with attribution required.