Я новичок в python и пытаюсь написать скрипт. Я могу получить список URL-адресов, а затем записать их в файл. Позже я придумаю, как их скачать.
На данный момент меня беспокоит:
- Как убедиться, что URL-адреса (или элементы в списке), которые у меня уже есть, не будут снова очищены?
- Действительно ли это хороший способ добавить URL-адреса в список, потому что в кратчайшие сроки их будут сотни/тысячи, ИЛИ я просто хочу сохранить текстовый файл с URL-адресами?
Вот код, который у меня есть.
import praw
import json
reddit = praw.Reddit(client_id='myy-client',
client_secret='my-secret',
user_agent='my-user-agent')
my_sub = reddit.subreddit('earthporn')
imagesList = []
badContent = "comments"
#myfile = open('images.txt', 'w')
for i in my_sub.new():
imagesList.append(i.url)
#myfile.write(i.url + " \n")
#myfile.close()
if badContent in imagesList:
imagesList.remove()
print(imagesList)
Обратите внимание, что строки «запись в файл» на самом деле закомментированы. Я просто экспериментировал с ними.