Respuestas:
HttpServerUtility.UrlEncode
utilizará HttpUtility.UrlEncode
internamente No hay diferencia específica. La razón de la existencia de Server.UrlEncode
es la compatibilidad con ASP clásico.
Tuve dolores de cabeza significativos con estos métodos antes, le recomiendo que evite cualquier variante UrlEncode
y, en su lugar, useUri.EscapeDataString
, al menos ese tiene un comportamiento comprensible.
Veamos...
HttpUtility.UrlEncode(" ") == "+" //breaks ASP.NET when used in paths, non-
//standard, undocumented.
Uri.EscapeUriString("a?b=e") == "a?b=e" // makes sense, but rarely what you
// want, since you still need to
// escape special characters yourself
Pero mi favorito personal tiene que ser HttpUtility.UrlPathEncode ; esto es realmente incomprensible. Codifica:
También tiene la documentación de MSDN maravillosamente específica "Codifica la porción de ruta de una cadena URL para una transmisión HTTP confiable desde el servidor web a un cliente". - Sin explicar realmente lo que hace. Es menos probable que te dispares en el pie con un Uzi ...
En resumen, quédese con Uri.EscapeDataString .
?
y quién puede decir cuáles se codificarán y cuáles servirán como separadores. En cuanto al espacio: en ambos casos, el espacio está en el hash, por lo que la presencia o ausencia de un fragmento de consulta no debería importar. Y finalmente, es imperdonable corromper un Uri como en el segundo ejemplo que contiene un%. El UrlPathEncode
método es simple y nunca debe usarse.
Avance rápido casi 9 años desde que esto se solicitó por primera vez, y en el mundo de .NET Core y .NET Standard, parece que las opciones más comunes que tenemos para la codificación de URL son WebUtility.UrlEncode (bajo System.Net
) y Uri.EscapeDataString . A juzgar por la respuesta más popular aquí y en otros lugares, Uri.EscapeDataString parece ser preferible. ¿Pero es? Hice un análisis para comprender las diferencias y esto es lo que se me ocurrió:
WebUtility.UrlEncode
codifica el espacio como +
; Uri.EscapeDataString
lo codifica como %20
.Uri.EscapeDataString
por ciento a codificar !
, (
, )
, y *
; WebUtility.UrlEncode
no.WebUtility.UrlEncode
codifica por ciento ~
; Uri.EscapeDataString
no.Uri.EscapeDataString
lanza una UriFormatException
cadena de más de 65.520 caracteres; WebUtility.UrlEncode
no. ( Un problema más común de lo que podría pensar, particularmente cuando se trata de datos de formulario codificados con URL ).Uri.EscapeDataString
lanza un UriFormatException
a los personajes sustitutos altos ; WebUtility.UrlEncode
no. (Eso es algo de UTF-16, probablemente mucho menos común).Para propósitos de codificación de URL, los caracteres encajan en una de 3 categorías: sin reserva (legal en una URL); reservado (legal en pero tiene un significado especial, por lo que es posible que desee codificarlo); y todo lo demás (siempre debe estar codificado).
Según la RFC , los caracteres reservados son::/?#[]@!$&'()*+,;=
Y los caracteres no reservados son alfanuméricos y -._~
Uri.EscapeDataString define claramente su misión:% -encode todos los caracteres reservados e ilegales. WebUtility.UrlEncode es más ambiguo tanto en definición como en implementación. Curiosamente, codifica algunos caracteres reservados pero no otros (¿por qué paréntesis y no paréntesis?), Y aún más extraño codifica ese carácter inocentemente sin reservas ~
.
Por lo tanto, estoy de acuerdo con el consejo popular: use Uri.EscapeDataString cuando sea posible y entienda que los caracteres reservados como /
y ?
serán codificados. Si necesita lidiar con cadenas potencialmente grandes, particularmente con contenido de formulario codificado con URL, deberá recurrir a WebUtility.UrlEncode y aceptar sus peculiaridades, o de lo contrario solucionar el problema.
EDIT: He intentado rectificar TODOS los caprichos mencionados anteriormente en Flurl a través de las Url.Encode
, Url.EncodeIllegalCharacters
y Url.Decode
los métodos estáticos. Estos están en el paquete principal (que es pequeño y no incluye todas las cosas de HTTP), o siéntase libre de extraerlos de la fuente. Agradezco cualquier comentario / comentario que tenga sobre estos.
Aquí está el código que usé para descubrir qué caracteres están codificados de manera diferente:
var diffs =
from i in Enumerable.Range(0, char.MaxValue + 1)
let c = (char)i
where !char.IsHighSurrogate(c)
let diff = new {
Original = c,
UrlEncode = WebUtility.UrlEncode(c.ToString()),
EscapeDataString = Uri.EscapeDataString(c.ToString()),
}
where diff.UrlEncode != diff.EscapeDataString
select diff;
foreach (var diff in diffs)
Console.WriteLine($"{diff.Original}\t{diff.UrlEncode}\t{diff.EscapeDataString}");
Tenga en cuenta que probablemente no debería usar ninguno de esos métodos. Biblioteca de secuencias de comandos contra sitios cruzados de Microsoft incluye reemplazos HttpUtility.UrlEncode
y HttpUtility.HtmlEncode
que cumplen con los estándares y son más seguros. Como beneficio adicional, también obtienes un JavaScriptEncode
método.