Вопросы по теме 'sparkr'

Экспорт данных из задания sparkR
У меня есть сценарий R, аналогичный приведенному в примере, где вы загружаете некоторые данные из hdfs, а затем как-то их сохраняете, в данном случае через файл Parquet. library(SparkR) # Initialize SparkContext and SQLContext sc <-...
168 просмотров
schedule 02.12.2021

Загрузка csv-файлов в sparkR
В R я создал два набора данных, которые я сохранил как csv-файлы с помощью liste <-write.csv(liste, file="/home/.../liste.csv", row.names=FALSE) data <- write.csv(data, file="/home/.../data.csv", row.names=FALSE) Теперь я хочу...
1843 просмотров
schedule 27.09.2021

Измените максимальный размер в R и sparkR
I R и sparkR Я хочу изменить "max-ppsize". https://cran.r-project.org/doc/manuals/r-release/R-intro.pdf page 93/105 есть описание команды. Как именно ввести его, когда я открыла программу R или sparkR в Ubuntu? Я не мог найти четкого описания...
746 просмотров
schedule 06.11.2021

Тип приведения типа double к целому числу в sparkR
У меня есть DataFrame в sparkR 'u', который содержит ID = 1 1 1 1 ... и age = 21 23 33 21 ... Чтобы взять сумму «возрастов», я делаю это sumage<-agg(u, ages="sum") Теперь sumage - это DataFrame с типом double. Я хочу, чтобы сумма была...
497 просмотров
schedule 23.10.2021

SparkR для стриминга с Spark 1.6
Любая идея, может ли SparkR для Spark 1.6 вызывать методы для потоковой передачи, например. скажем, регрессия потокового лайнера с SGD. Если да, может ли кто-нибудь поделиться ссылками. Спасибо!
120 просмотров
schedule 22.10.2021

Модель SparkR Glm
Я пытаюсь использовать glm на SparkR. Это пример из официальной документации Spark. df <- createDataFrame(sqlContext, iris) # Fit a gaussian GLM model over the dataset. model <- glm(Sepal_Length ~ Sepal_Width + Species, data = df,...
519 просмотров
schedule 08.09.2021

SparkR - список файлов для подключенной корзины AWS
Я только начал работать со Spark R. В Databricks смонтировано ведро aws.s3. Я хотел бы использовать list.files () или dir () для перечисления файлов, которые содержат определенный шаблон в своих именах. Однако я не могу определить путь для этого....
263 просмотров
schedule 31.10.2021

SparkR. Как подсчитать различные значения для всех столбцов в Spark DataFrame?
Мне интересно, есть ли способ подсчитать количество отдельных элементов в каждом столбце фрейма данных искры? То есть, учитывая этот набор данных: set.seed(123) df<- data.frame(ColA=rep(c("dog", "cat", "fish", "shark"), 4), ColB=rnorm(16),...
1273 просмотров
schedule 05.11.2021

SparkR под RStudio Server в Azure HDInsight
Я установил R 2.3.2, R Studio Server Open и пакет SparkR в кластере Azure HDInsight (Ubuntu 14.0.4). Я могу создать экземпляр SparkR из командной строки R с чем-то вроде этого, и он отлично работает: if (nchar(Sys.getenv("SPARK_HOME")) < 1)...
502 просмотров
schedule 03.03.2022

SparkR: ошибка установки 1.4.1
Я пробовал следующее для Spark 1.4.0 и 1.4.1 на Mac. Я загружаю пакет type = 'Исходный код [можно собрать несколько версий Hadoop' и загружаю тип http://ftp.wayne.edu/apache/spark/spark-1.4.1/spark-1.4.1..tgz . Когда я запускаю ./bin/sparkR в...
174 просмотров
schedule 22.03.2022

StringInderxer и одно горячее кодирование в SparkR
Я пытаюсь преобразовать строковую переменную в SparkR в числовую, используя одну концепцию горячего кодирования и используя stringindexer в приведенном ниже коде: df ‹-ft_string_indexer (spark_df, input_col = cluster_group, output_col = new) Однако я...
71 просмотров
schedule 25.04.2022

Как получить значения столбца (value.var в dcast) после поворота с помощью функции sdf_pivot()
Я пытаюсь преобразовать свой фрейм данных искры, используя функцию sdf_pivot() . Я хочу отображать значения столбцов, таких как параметр value.var, в dcast() из пакета reshape2. Пожалуйста, посмотрите на пример ниже. id <-...
428 просмотров
schedule 06.05.2022

Используете Caret со SparkR?
Возможно, это несколько похоже на этот вопрос , это не похоже на SparkR кадры данных совместимы с пакетом Caret. Когда я пытаюсь обучить свою модель, я получаю следующую ошибку: Error in as.data.frame.default(data) : cannot coerce...
1532 просмотров
schedule 28.05.2022

SparkR: как сделать ИНДЕКС-МАТЧ / ВПР
ИНДЕКС МАТЧ / ВПР В СПАРКР Я пытаюсь найти соответствие индекса / vlookup в Rstudio с пакетом SparkR, кто-нибудь уже делал это раньше? Я пытаюсь использовать функцию locate для доступа к тому же методу с функцией match в обычном RStudio, но я...
37 просмотров
schedule 31.05.2022

SparkR: присвоить значения столбца с условием
Я хочу заменить значения столбца определенным условием. Пример кадра данных R: df <- data.frame(id=c(1:7),value=c("a", "b", "c", "d", "e", "c", "c")) Я хочу заменить значения «c» и «d» в значении столбца на «e». В R это можно сделать...
1096 просмотров
schedule 07.06.2022

Получение ошибки при инициализации sparkR: JVM не готова через 10 секунд
В настоящее время я тестирую одно приложение с использованием SparkR. Это сведения о моей платформе и приложении: Платформа: Windows server 2008 SparkR версия: R версия 3.1.2 (2014-10-31) Spark Verion: версия 1.4.1 Что я сделал? Шаг...
5010 просмотров
schedule 15.06.2022

Использование R в Apache Spark
Есть несколько вариантов доступа к библиотекам R в Spark: непосредственно с помощью sparkr используя языковые привязки, такие как rpy2 или rscala с помощью отдельной службы, такой как opencpu Похоже, что SparkR довольно...
1369 просмотров

dropDuplicates в SparkR
Содержит ли SparkR dropDuplicates функция (для удаления повторяющихся строк на основе определенного столбца), которая присутствует в scala? Я наткнулся на этот ответ в SOF. Но вместо использования GroupBy у нас есть функция удаления дубликатов...
253 просмотров
schedule 08.07.2022

Разница во времени, затрачиваемом на импорт файлов паркета между SparkR и sparklyr
Я импортирую файлы паркета в блоки данных, используя SparkR и sparklyr . data1 = SparkR::read.df("dbfs:/.../data202007*", source = "parquet", header = TRUE, inferSchema = TRUE) data1 = sparklyr::spark_read_parquet(sc =...
91 просмотров
schedule 12.07.2022

SparkR Stage X содержит задачу очень большого размера
Я получаю это предупреждение при вызове createOrReplaceTempView с фреймом данных R: createOrReplaceTempView (as.Data.Frame(products), "prod") Должен ли я игнорировать это предупреждение? Это неэффективно? Спасибо!
154 просмотров
schedule 27.07.2022