# 读取文本文件并统计单词出现次数


背景介绍

编程问题要求我们实现一个文本文件分析工具,统计每个单词的出现次数。该任务需要使用Python语言,通过文件读取、单词拆分和统计实现,最终输出统计结果。该任务要求仅本地运行,依赖Python脚本,具有学习价值,难度适中。

思思路分析

  1. 读取文本:使用Python的with open()读取文本文件,确保文件流在文件读取后自动关闭。
  2. 单词拆分:通过split()方法将文本内容拆分为单词列表,处理空格、换行符等空白字符。
  3. 统计出现次数:利用字典统计每个单词的出现次数,字典的键是单词,值为出现次数。
  4. 输出结果:使用print语句展示统计结果,按单词分组并输出。

代码实现

from collections import defaultdict

def count_words_in_file(filename):
    with open(filename, 'r') as file:
        text = file.read()

    words = text.split()
    word_counts = defaultdict(int)

    for word in words:
        word_counts[word] += 1

    for word, count in word_counts.items():
        print(f"{word}: {count}")

# 示例输入输出
count_words_in_file("hello world this is a test")

总结

本项目要求实现了文本文件分析功能,通过Python脚本实现了单词统计任务。代码实现了以下功能:
1. 文件读取:使用with open()读取文本内容,确保文件流在读取后自动关闭。
2. 单词拆分:通过split()方法将文本内容拆分为单词列表,处理空格和换行符等空白字符。
3. 统计出现次数:利用字典统计每个单词的出现次数,字典的键是单词,值为出现次数。
4. 输出结果:使用print语句展示统计结果,按单词分组并输出。

该实现仅本地运行,依赖Python脚本,具有学习价值,难度适中。通过本项目,可以学习Python的文件处理、字典统计以及输出格式化等编程技能。


发表回复

您的邮箱地址不会被公开。 必填项已用 * 标注