Preguntas etiquetadas con dataframe

Un marco de datos es una estructura de datos tabular. Por lo general, contiene datos donde las filas son observaciones y las columnas son variables de varios tipos. Mientras "marco de datos" o "marco de datos" es el término utilizado para este concepto en varios idiomas (R, Apache Spark, deedle, Maple, la biblioteca de pandas en Python y la biblioteca de marcos de datos en Julia), "tabla" es el término utilizado en MATLAB y SQL.

15
La construcción de pandas DataFrame a partir de valores en variables proporciona "ValueError: si usa todos los valores escalares, debe pasar un índice"
Esta puede ser una pregunta simple, pero no puedo entender cómo hacerlo. Digamos que tengo dos variables de la siguiente manera. a = 2 b = 3 Quiero construir un DataFrame a partir de esto: df2 = pd.DataFrame({'A':a,'B':b}) Esto genera un error: ValueError: si usa todos los valores escalares, debe …


12
Cómo aplicar una función a dos columnas del marco de datos Pandas
Supongamos que tengo un dfque tiene columnas de 'ID', 'col_1', 'col_2'. Y defino una función: f = lambda x, y : my_function_expression. Ahora quiero aplicar la fa df's dos columnas 'col_1', 'col_2'para calcular elemento gota una nueva columna 'col_3', algo así como: df['col_3'] = df[['col_1','col_2']].apply(f) # Pandas gives : TypeError: …
368 python  pandas  dataframe 

10
Extraer columnas específicas de un marco de datos
Tengo un marco de datos R con 6 columnas, y quiero crear un nuevo marco de datos que solo tenga tres de las columnas. Suponiendo mi trama de datos es df, y quiero columnas de extracto A, By E, este es el único comando que puedo averiguar: data.frame(df$A,df$B,df$E) ¿Hay una …
366 r  dataframe  r-faq 

15
Cómo sumar una variable por grupo
Tengo un marco de datos con dos columnas. La primera columna contiene categorías como "Primero", "Segundo", "Tercero", y la segunda columna tiene números que representan la cantidad de veces que vi los grupos específicos de "Categoría". Por ejemplo: Category Frequency First 10 First 15 First 5 Second 2 Third 14 …
357 r  dataframe  aggregate  r-faq 

17
Convierta columnas data.frame de factores a caracteres
Tengo un marco de datos. Vamos a llamarlo bob: > head(bob) phenotype exclusion GSM399350 3- 4- 8- 25- 44+ 11b- 11c- 19- NK1.1- Gr1- TER119- GSM399351 3- 4- 8- 25- 44+ 11b- 11c- 19- NK1.1- Gr1- TER119- GSM399352 3- 4- 8- 25- 44+ 11b- 11c- 19- NK1.1- Gr1- TER119- GSM399353 …
352 r  dataframe 

11
¿Cómo obtener un valor de una celda de un marco de datos?
He construido una condición que extrae exactamente una fila de mi marco de datos: d2 = df[(df['l_ext']==l_ext) & (df['item']==item) & (df['wn']==wn) & (df['wd']==1)] Ahora me gustaría tomar un valor de una columna en particular: val = d2['col_name'] Pero como resultado obtengo un marco de datos que contiene una fila y …
344 python  pandas  dataframe 

9
Convierta una lista de marcos de datos en un marco de datos
Tengo un código que en un lugar termina con una lista de marcos de datos que realmente quiero convertir en un solo marco de datos grandes. Recibí algunos consejos de una pregunta anterior que intentaba hacer algo similar pero más complejo. Aquí hay un ejemplo de lo que estoy comenzando …
336 list  r  dataframe 





7
Pandas read_csv low_memory y dtype opciones
Cuando llame df = pd.read_csv('somefile.csv') Yo obtengo: /Users/josh/anaconda/envs/py27/lib/python2.7/site-packages/pandas/io/parsers.py:1130: DtypeWarning: Las columnas (4,5,7,16) tienen tipos mixtos. Especifique la opción dtype al importar o establezca low_memory = False. ¿Por qué está dtyperelacionada la opción low_memoryy por qué Falseayudarla con este problema?

11
Cómo almacenar un marco de datos usando Pandas
En este momento estoy importando un CSVmarco de datos bastante grande cada vez que ejecuto el script. ¿Existe una buena solución para mantener ese marco de datos constantemente disponible entre ejecuciones para que no tenga que pasar todo el tiempo esperando que se ejecute el script?
317 python  pandas  dataframe 


Al usar nuestro sitio, usted reconoce que ha leído y comprende nuestra Política de Cookies y Política de Privacidad.
Licensed under cc by-sa 3.0 with attribution required.