Respuestas:
HttpServerUtility.UrlEncodeutilizará HttpUtility.UrlEncodeinternamente No hay diferencia específica. La razón de la existencia de Server.UrlEncodees la compatibilidad con ASP clásico.
Tuve dolores de cabeza significativos con estos métodos antes, le recomiendo que evite cualquier variante UrlEncodey, en su lugar, useUri.EscapeDataString , al menos ese tiene un comportamiento comprensible.
Veamos...
HttpUtility.UrlEncode(" ") == "+" //breaks ASP.NET when used in paths, non-
//standard, undocumented.
Uri.EscapeUriString("a?b=e") == "a?b=e" // makes sense, but rarely what you
// want, since you still need to
// escape special characters yourself
Pero mi favorito personal tiene que ser HttpUtility.UrlPathEncode ; esto es realmente incomprensible. Codifica:
También tiene la documentación de MSDN maravillosamente específica "Codifica la porción de ruta de una cadena URL para una transmisión HTTP confiable desde el servidor web a un cliente". - Sin explicar realmente lo que hace. Es menos probable que te dispares en el pie con un Uzi ...
En resumen, quédese con Uri.EscapeDataString .
?y quién puede decir cuáles se codificarán y cuáles servirán como separadores. En cuanto al espacio: en ambos casos, el espacio está en el hash, por lo que la presencia o ausencia de un fragmento de consulta no debería importar. Y finalmente, es imperdonable corromper un Uri como en el segundo ejemplo que contiene un%. El UrlPathEncodemétodo es simple y nunca debe usarse.
Avance rápido casi 9 años desde que esto se solicitó por primera vez, y en el mundo de .NET Core y .NET Standard, parece que las opciones más comunes que tenemos para la codificación de URL son WebUtility.UrlEncode (bajo System.Net) y Uri.EscapeDataString . A juzgar por la respuesta más popular aquí y en otros lugares, Uri.EscapeDataString parece ser preferible. ¿Pero es? Hice un análisis para comprender las diferencias y esto es lo que se me ocurrió:
WebUtility.UrlEncodecodifica el espacio como +; Uri.EscapeDataStringlo codifica como %20.Uri.EscapeDataStringpor ciento a codificar !, (, ), y *; WebUtility.UrlEncodeno.WebUtility.UrlEncodecodifica por ciento ~; Uri.EscapeDataStringno.Uri.EscapeDataStringlanza una UriFormatExceptioncadena de más de 65.520 caracteres; WebUtility.UrlEncodeno. ( Un problema más común de lo que podría pensar, particularmente cuando se trata de datos de formulario codificados con URL ).Uri.EscapeDataStringlanza un UriFormatExceptiona los personajes sustitutos altos ; WebUtility.UrlEncodeno. (Eso es algo de UTF-16, probablemente mucho menos común).Para propósitos de codificación de URL, los caracteres encajan en una de 3 categorías: sin reserva (legal en una URL); reservado (legal en pero tiene un significado especial, por lo que es posible que desee codificarlo); y todo lo demás (siempre debe estar codificado).
Según la RFC , los caracteres reservados son::/?#[]@!$&'()*+,;=
Y los caracteres no reservados son alfanuméricos y -._~
Uri.EscapeDataString define claramente su misión:% -encode todos los caracteres reservados e ilegales. WebUtility.UrlEncode es más ambiguo tanto en definición como en implementación. Curiosamente, codifica algunos caracteres reservados pero no otros (¿por qué paréntesis y no paréntesis?), Y aún más extraño codifica ese carácter inocentemente sin reservas ~.
Por lo tanto, estoy de acuerdo con el consejo popular: use Uri.EscapeDataString cuando sea posible y entienda que los caracteres reservados como /y ?serán codificados. Si necesita lidiar con cadenas potencialmente grandes, particularmente con contenido de formulario codificado con URL, deberá recurrir a WebUtility.UrlEncode y aceptar sus peculiaridades, o de lo contrario solucionar el problema.
EDIT: He intentado rectificar TODOS los caprichos mencionados anteriormente en Flurl a través de las Url.Encode, Url.EncodeIllegalCharactersy Url.Decodelos métodos estáticos. Estos están en el paquete principal (que es pequeño y no incluye todas las cosas de HTTP), o siéntase libre de extraerlos de la fuente. Agradezco cualquier comentario / comentario que tenga sobre estos.
Aquí está el código que usé para descubrir qué caracteres están codificados de manera diferente:
var diffs =
from i in Enumerable.Range(0, char.MaxValue + 1)
let c = (char)i
where !char.IsHighSurrogate(c)
let diff = new {
Original = c,
UrlEncode = WebUtility.UrlEncode(c.ToString()),
EscapeDataString = Uri.EscapeDataString(c.ToString()),
}
where diff.UrlEncode != diff.EscapeDataString
select diff;
foreach (var diff in diffs)
Console.WriteLine($"{diff.Original}\t{diff.UrlEncode}\t{diff.EscapeDataString}");
Tenga en cuenta que probablemente no debería usar ninguno de esos métodos. Biblioteca de secuencias de comandos contra sitios cruzados de Microsoft incluye reemplazos HttpUtility.UrlEncodey HttpUtility.HtmlEncodeque cumplen con los estándares y son más seguros. Como beneficio adicional, también obtienes un JavaScriptEncodemétodo.