Încerc să citesc un mic fișier txt care este adăugat ca un tabel implicit db pe Databricks. În timp ce încearcă să citiți fișierul prin Local de Fișiere API, am primit un FileNotFoundError
dar sunt capabil să citească același fișier ca Scânteie RDD folosind SparkContext.
Vă rugăm să găsiți codul de mai jos:
with open("/FileStore/tables/boringwords.txt", "r") as f_read:
for line in f_read:
print(line)
Acest lucru îmi dă eroare:
FileNotFoundError Traceback (most recent call last)
<command-2618449717515592> in <module>
----> 1 with open("dbfs:/FileStore/tables/boringwords.txt", "r") as f_read:
2 for line in f_read:
3 print(line)
FileNotFoundError: [Errno 2] No such file or directory: 'dbfs:/FileStore/tables/boringwords.txt'
În cazul în care ca, nu am nici o problema la citirea fișierului folosind SparkContext:
boring_words = sc.textFile("/FileStore/tables/boringwords.txt")
set(i.strip() for i in boring_words.collect())
Și cum era de așteptat, am primit rezultatul de mai sus bloc de cod:
Out[4]: {'mad',
'mobile',
'filename',
'circle',
'cookies',
'immigration',
'anticipated',
'editorials',
'review'}
Am fost, de asemenea, referindu-se la DBFS documentație aici pentru a înțelege Local de Fișiere API limitări, dar nu duce la problema. Orice ajutor ar fi apreciat foarte mult. Multumesc!!!