Я пишу код для обнаружения плохих ключевых слов в файле. Вот шаги, которым я следую:
- Токенизация с помощью StreamTokenizer
Используйте сопоставление шаблонов, чтобы найти совпадения
while(streamTokenizer.nextToken() != StreamTokenizer.TT_EOF){ if(streamTokenizer.ttype == StreamTokenizer.TT_WORD) { String token = streamTokenizer.sval.trim().replaceAll("\\\\n", "") final Matcher matcher = badKeywordPattern.matcher(token) if(matcher.find()) { // bad tokens found return true; } } }
String token = streamTokenizer.sval.trim().replaceAll("\\\\n", "")
выполняется для сопоставления токена, охватывающего несколько строк, с \
. Пример:
bad\
token
Однако замена не работает. Какие-либо предложения? Есть другие способы сделать это?
String token = streamTokenizer.sval.trim().replaceAll("\\"+"\n", "")
- person Kh.Taheri   schedule 25.04.2017