使用StreamTokenizer(),HashMap(),HashSet()计算单词频率。在Java Core中

时间:2019-03-10 10:44:09

标签: java hashmap tokenize hashset

import java.io.*;
import java.util.*;
class A {
    public static void main(String args[]) throws Exception {
        Console con = System.console();
        String str;
        int i=0;

        HashMap map = new HashMap();
        HashSet set = new HashSet();

        System.out.println("Enter File Name : ");
        str = con.readLine();
        File f = new File(str);
        f.createNewFile();

        FileInputStream fis = new FileInputStream(str);
        StreamTokenizer st = new StreamTokenizer(fis);
        while(st.nextToken()!=StreamTokenizer.TT_EOF) {
         String s;

         switch(st.ttype) {
             case StreamTokenizer.TT_NUMBER:  s = st.nval+"";
             break;
              case StreamTokenizer.TT_WORD:    s = st.sval;
               break;
                default: s = ""+((char)st.ttype);
            }


            map.put(i+"",s);
            set.add(s);
            i++;
        }

        Iterator iter = set.iterator();
        System.out.println("Frequency Of Words :");
        while(iter.hasNext()) {
          String word;
          int count=0;
          word=(String)iter.next();

            for(int j=0; j<i ; j++) {
             String word2;
              word2=(String)map.get(j+"");
               if(word.equals(word2))
                count++;
            }
            System.out.println(" WORD : "+ word+" = "+count);
        }
        System.out.println("Total Words In Files: "+i);
    }
}
  

在此代码中,首先我已经创建了一个文本文件,其中包含以下数据:

@ Hello Hii World#* c ++ java salesforce

  

这段代码的输出是:

**词频:

WORD:#= 1

WORD:@ = 1

WORD:c = 1

WORD:salesforce = 1

WORD:* = 1

WORD:Hii = 1

WORD:+ = 2

WORD:java = 1

WORD:世界= 1

WORD:Hello = 1

文件中的单词总数:11 **

  

我在哪里找不到为什么将c ++显示为单独的单词。一世   想要将c ++作为一个单词组合成输出中的

1 个答案:

答案 0 :(得分:1)

您可以通过这种方式完成

    // Create the file at path specified in the String str
    // ...
    HashMap<String, Integer> map = new HashMap<>();
    InputStream fis = new FileInputStream(str);
    Reader bufferedReader = new BufferedReader(new InputStreamReader(fis));

    StreamTokenizer st = new StreamTokenizer(bufferedReader);
    st.wordChars('+', '+');
    while(st.nextToken() != StreamTokenizer.TT_EOF) {
        String s;

        switch(st.ttype) {
            case StreamTokenizer.TT_NUMBER:
                s = String.valueOf(st.nval);
                break;
            case StreamTokenizer.TT_WORD:
                s = st.sval;
                break;
            default:
                s = String.valueOf((char)st.ttype);
        }
        Integer val = map.get(s);
        if(val == null)
            val = 1;
        else
            val++;
        map.put(s, val);
    }

    Set<String> keySet = map.keySet();
    Iterator<String> iter = keySet.iterator();
    System.out.println("Frequency Of Words :");
    int sum = 0;
    while(iter.hasNext()) {
        String word = iter.next();
        int count = map.get(word);
        sum += count;
        System.out.println(" WORD : " + word + " = " + count);
    }
    System.out.println("Total Words In Files: " + sum);

请注意,我已经使用泛型而不是HashMap和Iterator的原始版本更新了您的代码。此外,已弃用了用于StreamTokenizer的构造函数。 map和set的使用是没有用的,因为您可以使用.keySet()方法遍历map的键集。映射现在从String(单词)变为Integer(单词数)。

无论如何,关于您所做的示例,我认为使用简单的拆分方法会更合适。

有关StreamTokenizer的wordChars方法的更多信息,请查看#wordChars(int, int)