Sto cercando di leggere un piccolo file txt che viene aggiunto come una tabella predefinita db su Databricks. Durante il tentativo di leggere il file utilizzando il File API, ho un FileNotFoundError
ma io sono in grado di leggere lo stesso file come Scintilla RDA utilizzando SparkContext.
Si prega di trovare il codice riportato di seguito:
with open("/FileStore/tables/boringwords.txt", "r") as f_read:
for line in f_read:
print(line)
Questo mi dà l'errore:
FileNotFoundError Traceback (most recent call last)
<command-2618449717515592> in <module>
----> 1 with open("dbfs:/FileStore/tables/boringwords.txt", "r") as f_read:
2 for line in f_read:
3 print(line)
FileNotFoundError: [Errno 2] No such file or directory: 'dbfs:/FileStore/tables/boringwords.txt'
Dove, come, non ho alcun problema a leggere il file utilizzando SparkContext:
boring_words = sc.textFile("/FileStore/tables/boringwords.txt")
set(i.strip() for i in boring_words.collect())
E come previsto, ho ottenere il risultato di cui sopra il blocco di codice:
Out[4]: {'mad',
'mobile',
'filename',
'circle',
'cookies',
'immigration',
'anticipated',
'editorials',
'review'}
Sono stato anche in riferimento all' DBFS documentazione qui per capire Locale del File API limiti, ma non portare la questione. Qualsiasi aiuto sarebbe molto apprezzato. Grazie!