定性内容分析可帮助研究人员系统地探索大量文本 – 查找模式、映射含义并生成见解,而无需将所有内容简化为数字。这是一种灵活的方法,可以为定性数据带来结构,而不会将研究人员锁定在僵化的框架中。

在本指南中,我们分解了什么是定性内容分析,它与主题分析有何不同,以及每个步骤在实践中是什么样的——从准备数据到展示结果。我们还介绍了归纳编码和演绎编码的作用,展示了 NVivo 和 ATLAS.ti 等定性数据分析软件如何简化工作流程,并通过示例展示了定性内容分析在实际应用中的样子。

如果您不熟悉该方法,则可能需要先阅读 Lumivero 的定性数据分析概述,然后再继续。

什么是定性内容分析?

定性研究的内容分析是一种组织和解释文本或视觉数据的系统方法。与计算单词或代码的定量内容分析不同,定性形式关注含义和上下文。

研究人员使用访谈记录、调查评论、政策文件或媒体帖子,分离出与研究问题相关的片段。这些细分分为描述现象的数据驱动或理论指导的类别。该程序平衡了结构与灵活性,使研究始终以源材料为基础。该技术源于大众传播的早期研究,现在支持健康、教育和社会学的研究。

定性内容分析的文献中出现了几种风格。Hsieh 和 Shannon 描述了传统、定向和总结性方法,每种方法都符合不同的分析目标。

传统分析让类别从数据中增长,定向分析从先前的理论开始,总结性分析检查所选术语的频率或强度,同时也解释潜在含义。这三项都需要透明的文档,以便读者可以看到调查结果是如何得出的。

定性内容分析的可信度取决于明确的编码规则、反思性的备忘录写作,以及在有用时,不止一个编码人员讨论差异。特别是当多个研究人员分析数据集时,建立可靠性是提供值得信赖的分析的一项重要任务。可靠性统计数据(如 Krippendorff 的 α)可以与可信度和可转移性(可信度指南)等定性标准并列。指南强调,即使出现计数,解释(而不是预测)仍然是目标。

同行汇报、参与者检查和反思性日记提供了额外的证据,证明解释以及源上下文。这些做法向期刊审稿人表明了分析的完整性。

NVivo 和 ATLAS.ti 等定性数据分析软件可以通过分割、编码和备忘录管理来加速定性内容分析,而无需改变方法的逻辑。相同的工作流程适用于焦点组、现场注释或社交媒体屏幕截图。为您的研究选择合适的平台取决于团队规模、文件类型和报告需求,本指南将在后面介绍。接下来,我们考虑内容分析在定性-定量光谱上的位置。

内容分析是定性的还是定量的?

内容分析有时被贴上混合方法的标签,因为它借用了定性和定量传统的工具。区别取决于研究人员如何处理这些材料。

定性取向。 当目标是解释意义是如何形成的时,研究人员会关注上下文。文本片段根据潜在或明显的含义进行编码,并且类别仍有待细化。解释性注释、备忘录和迭代比较指导决策。频率可以被记录下来,但仅用于强调重点,而不是检验假设。可信度检查——同行评审、成员反馈、反思性期刊——支持定性工作中常见的可信度标准。当目标是解释意义是如何形成的时,研究人员关注上下文,这就是为什么定性研究侧重于探索对特定现象的深入见解。

定量取向。 定量研究通过测量和分类内容,使研究人员能够根据统计证据得出结论,这对于确定研究的可靠性和效度至关重要。当代码在数据审查和计数驱动分析之前固定时,研究会转向定量方面。例如,在媒体研究中,一个团队可能会统计政策框架在报纸上出现的次数,以提出可推广的主张。可靠性统计数据(如 Cohen 的 Kappa Coeffient)成为判断严谨性的核心。这种方法对于大型数据集非常有用,因为在这些数据集中,数据量会使深度解释工作变得不切实际。

混合实践。许多研究将这两种逻辑结合起来。类别可能源于理论(演绎),但分析师仍然阅读细微差别。计数可以说明突出性,而叙述性摘要则说明了模式如何以及为什么重要。NVivo 和 ATLAS.ti 等软件促进了以计数和含义为中心的编码,让团队可以在各个范围内来回移动。选择一种平衡而不是另一种平衡取决于研究问题:目标是映射频率、解释含义还是同时完成两者?认识到这个连续体可以阐明为什么内容分析可以出现在期刊方法指南的定性或定量研究部分。

定性内容分析的类型

研究人员根据理论塑造研究问题的牢固程度在演绎和归纳内容分析之间进行选择。这两种方法都遵循相同的广泛工作流程 – 准备数据、编码、分类和解释 – 但它们在定义类别的时间以及分析过程中编码的灵活性方面有所不同。

演绎定性内容分析

演绎分析从一个现有的框架开始——通常是从以前的文献或政策文件中提取的一组概念。分析师在编码开始之前将这些概念转换为类别矩阵。评估每个文本段是否适合这个预定的结构;不合适的区段将单独注明或标记为“其他”以供以后检查。

由于编码帧在早期是固定的,因此可以在早期阶段计算编码器间一致性统计信息。任何分歧都会促使对类别定义进行有针对性的修订,而不是进行大规模重组。当目标是确认模型、监控政策采用或将理论映射到新的环境中时,这种策略效果很好。例如,对患者安全报告的研究可能会根据预定义的错误类型对报告进行编码,以评估医院单位的频率和严重性。演绎路线将重点放在测试或扩展已建立的解释上,而不是生成新的结构。

归纳定性内容分析

归纳分析通过让类别在仔细阅读材料期间演变来颠倒该顺序。分析师从开放式编码开始 — 标记任何有意义的细分,而无需将其强制纳入预设方案。然后,捕获相似含义的代码被合并到更高阶的类别中,这些类别可以通过不断比较进行细化,直到没有新的类别出现。

备忘录写作跟踪分析问题和类别之间的暂定链接。这种灵活性允许意想不到的主题浮出水面,使归纳分析适用于探索性研究或先前研究有限的环境。例如,一个研究第一代大学生社交媒体帖子的项目可能会揭示早期文献中没有提到的应对策略或支持网络。

有关此工作流程的实用指南,请阅读“在定性研究中导航归纳内容分析”,其中概述了提高透明度的代码合并、抽象和审计跟踪技术。

定性研究中的内容分析与主题分析

内容分析和主题分析都将原始语言数据转换为有组织的调查结果,但它们服务于不同的分析目标。每个步骤都从熟悉的步骤开始,包括数据熟悉、编码、分类和模式查找,因此从一个步骤转到另一个步骤的研究人员将了解大部分工作流程。这两种方法也接受演绎逻辑或归纳逻辑;研究可以从理论驱动的代码开始,也可以允许在阅读过程中出现类别。自反式备忘录编写、同行检查和研究软件工具(如 NVivo 或 ATLAS.ti)在这两种方法中都支持严谨性。

在内容分析的上下文中,区分概念分析和关系分析非常重要。概念分析侧重于数据中特定概念的存在和频率,而关系分析则旨在了解这些概念之间的关系。通过概述这两种分析所涉及的过程和考虑因素,研究人员可以确保方法的严谨性并了解对研究结果的影响。

关键的分歧在于每种方法如何处理意义单位以及它寻求的结果。内容分析强调明确界定的单位(单词、句子或图像)的频率和分布,以回答“存在什么以及出现的频率”。类别相对接近文本,计数引入了准定量镜头,而不会改变作品的解释性质。

主题分析侧重于跨越数据集的更广泛模式,询问“这种模式告诉我们有关潜在现象的什么信息”。主题可以整合上下文、潜在含义和参与者自己的框架,即使特定词发生变化。因此,主题分析通常会产生叙述性叙述,将多个代码链接成一个总体故事,而内容分析通常会产生一个结构化的类别和子类别列表,并带有说明性摘录。

这两种定性研究方法在产出粒度上也有所不同。调查评论数据的管理者可能更喜欢内容分析,因为其简洁的类别计数可以直接输入仪表板,而人种学家可能依靠主题分析来制作对社会过程的丰富描述。在它们之间进行选择取决于研究问题、数据集大小和所需的抽象级别。

有关可以适应任一方法的软件功能的实际考虑,请参阅 Lumivero 的 QDA 软件选项比较。

方面 含量分析 主题分析 
主要关注点意义单位的频率和分布跨数据集的模式化含义
典型分析单位单词、短语、句子、图像细分、分集或完整帐户
结果具有计数的分层类别(可选)解释现象的主题
计数的作用通用,支持比较可选,通常是次要的
抽象级别更接近表面的含义范围从表面到潜在含义
理想的用例大型评论集、媒体研究、政策跟踪基于经验的研究、身份工作、过程跟踪
常见软件任务Code-and-count、矩阵查询代码比较、主题映射
报告样式类别频率的表格或图表以及示例带有说明性引述的叙述综合

定性内容分析步骤 – 从数据收集到分析过程

定性内容分析通过可重复的工作流程进行,该工作流程保留了原材料和最终结果之间的联系。以下八个步骤概述了从数据收集到编写的典型路径。随着见解的发展,团队通常会循环回到前面的步骤,因此请将序列视为组织脚手架,而不是僵化的清单。

准备并熟悉数据

将所有相关来源(访谈记录、焦点小组录音、政策文件或社交媒体捕获)收集到一个项目空间中。逐字转录录音,纠正明显的错误,并匿名识别详细信息以保护参与者。将清理后的文件导出为文本可搜索格式,如 .docx 或 .txt,然后至少通读每个文件一次,而无需编码。使用边注或备忘录来捕捉第一印象、有趣的短语转折和可能的分析角度。早期熟悉通过阐明参与者如何表达想法、他们自然使用哪些术语以及上下文线索出现的位置来加强后续编码。

定义分析单位

分析单位是将接收代码的最小数据块。它的范围可以从单个单词到一个完整的段落,具体取决于研究问题。对于污名化语言的研究,一个词或短语可能就足够了;对于关于工作场所文化的工作,句子或短段落提供了更多的上下文。仔细选择单位,在方法部分说明选择,并在整个数据集中保持稳定,以便计数和比较仍然有意义。当多个单元都合理时,在一小部分上试用每个选项,看看哪个选项以最少的歧义捕捉到预期的概念。

开发或优化编码框架

创建一个编码框架,其中列出了类别名称、简要定义和包含-排除示例。在演绎项目中,类别源自理论或政策指导方针;在归纳项目中,它们从开放编码中发展而来。无论哪种方式,都要在最低级别实现相互排他性,这样一个单元就适合一个类别,除非存在合理的重叠。在分层关系很重要的情况下,将类别排列到父子分支中,以反映日益增加的特异性。定义明确的帧可减少编码器漂移,支持透明度,并加快以后的检索任务。将框架存储在软件注释或共享文档中,该文档会在修订时自动更新。

对编码帧进行试点测试

将草稿帧应用于数据集的 5% 到 10%。如果在团队中工作,请独立编写相同的文件,然后将区段与代码匹配项进行比较。注意分歧、模糊定义或缺失的类别。修改措辞、合并重叠代码或拆分隐藏重要区别的大代码。重新测试,直到编码人员达到可接受的一致性水平,或者在单编码人员研究中,直到框架感觉稳定。试点可以防止以后进行大规模重新编码,并生成审计跟踪,显示分析决策是如何演变的。

对完整数据集进行编码

系统地处理每个文件,为每个符合条件的商品分配代码。将反思性备忘录放在手边,以记录影响意义的不确定性、新出现的想法或背景因素。段边界应与所选的分析单位保持一致;避免扩展或收缩单元以强制拟合。在软件中,使用颜色编码或标签来标记需要再次查看的单元。如果为了可靠性而进行双重编码,请设置检查点(例如,每五个文件一次)以讨论差异并根据需要调整帧。当所有数据都已处理并且没有未解析的段保留时,编码即完成。

汇总类别并确定模式

导出代码报告或运行矩阵查询以查看链接到每个类别的所有区段。编写简明扼要的摘要,以通俗易懂的语言捕捉每个类别的要点。注意相对流行率、典型背景和任何值得注意的例外情况。查找类别之间的共现、时间序列或参与者组之间的对比。基本计数可以突出重点,而定性比较可以阐明含义的不同之处。在可视化有帮助的地方,在软件中生成条形图或集群图;这些输出有助于解释,而不会取代叙事洞察力。

检查可信度和可靠性

通过将每个索赔追溯到支持片段和备忘录来建立可信度。邀请一位同行回顾编码框架和编码文本样本,询问解释是否合理。如果适用,请与参与者分享初步调查结果以征求意见。计算编码器间可靠性统计数据,例如使用固定帧时的 Krippendorff α,或者在帧归纳演化时依赖协商的协议。维护记录编码决策、备忘录条目和帧修订的审计跟踪,以便外部读者可以遵循分析逻辑。

报告结果

在方法部分中描述数据集、分析单元、编码帧构造和可靠性检查。用简洁的定义和一两个说明性引文来介绍每个主要类别(或主题,如果类别是后来汇总的)。当计数提供信息时,请包括一个简单的表,该表按组列出类别频率或交叉制表。讨论模式如何回答研究问题、与以前的研究相关或指出实际意义。提供足够的摘录数据,让读者判断证据和解释之间的契合度,但要避免用冗长的文字块压倒它们。

定性内容分析的优势和挑战

定性内容分析提供了一系列好处,使其成为探索复杂研究问题的强大方法。它的主要优势之一是能够从文本和视觉数据中发现深入、细微的见解。与定量方法不同,定性分析允许研究人员探索背景、意义和主观体验——使其在社会和文化研究中特别有价值。

另一个主要优势是灵活性。定性内容分析可以应用于不同的数据源,例如访谈、焦点小组、开放式调查回复、政策文件和社交媒体内容。这种适应性使研究人员能够定制他们的分析以适应他们研究的特定目标和设计。

但是,该方法确实存在挑战。对数据进行编码和分类可能非常主观,从而增加不一致或偏倚的风险。NVivo 和 ATLAS.ti 等工具通过提供结构化编码环境、可视化和审计跟踪来解决这个问题,这有助于在整个研究过程中保持一致性和透明度。这两个平台都支持基于团队的编码,允许多个研究人员在跟踪编码人员间协议的同时协同工作。

研究人员的偏见是另一个问题,特别是因为定性内容分析在很大程度上依赖于解释。为了缓解这种情况,像 memoing 和 annotation 这样的反射性做法是至关重要的。NVivo 和 ATLAS.ti 通过内置的备忘录编写、链接见解和记录分析决策功能来支持这些实践,帮助研究人员了解他们的假设并保持解释的严谨性。

定性内容分析的时间密集型性质(尤其是对于大型数据集)也是一个常见的障碍。手动排序、编码和分析可能要求很高。NVivo 和 ATLAS.ti 在这里提供了自动化工具,例如词频计数、文本搜索、情感分析和按主题自动编码(识别名词短语),这些工具可以加快初始编码速度并减少手动工作量,而不会牺牲深度。

尽管存在挑战,但定性内容分析仍然是生成丰富、详细结果的宝贵方法。当与 Lumivero 的研究软件等工具配合使用时,研究人员可以简化他们的工作流程,提高可靠性,并加深他们的洞察力。

定性内容分析示例

以下虚构案例展示了研究人员如何跨不同的数据源和分析逻辑应用定性内容分析。虽然不是来自实际研究,但每个示例都介绍了有关分析单元、编码框架和可信度检查的关键决策,说明了该方法如何适应不同的研究目标。

示例 1:患者体验社交帖子的归纳分析

研究目标和数据集。一个定性健康研究团队想了解患者如何在社交媒体上谈论门诊化疗。他们在六个月的窗口期内搜集了 12,000 个公共社交帖子,然后抽样了 2,000 个提到输液诊所的英语帖子。每个帖子都成为分析的单位。

编码工作流程。分析师将样本导入到他们的 CAQDAS 项目中,并开始开放编码。“long wait”、“nurse support”和“billing shock”等短短语可以捕获帖子内容,而无需将其强行纳入预定义的结构。经过两轮轮后,该团队将代码分为更广泛的类别——物流、人际关系护理、身体副作用和财务压力——检查帖子是否符合最低级别的一个类别。

信用。两名编码员对 10% 的样本进行了双重编码,协商了分歧,并在重叠导致混淆的地方完善了定义。备忘录记录了当新模式出现时将 “副作用 ”分为 “side effects ”和 “acute ”子类别的决定。项目外的同行评审员阅读了链接到每个类别的随机摘录,并同意标签与内容相匹配。

关键见解。归纳法浮出水面了一个意想不到的类别:“crowdsourcing tips”,患者在其中交换了有关管理恶心和日程安排的实用建议。此类别将临床团队指向可能的患者生成的值得正式评估的资源。

示例 2:大学政策文件的演绎分析

研究目标和数据集。 一项教育政策研究考察了美国大学如何将公平语言纳入学术诚信政策。研究人员从机构网站收集了 150 份公开可用的政策文件。分析单位是一个句子,选择它是因为它在上下文和具体性之间取得平衡。

编码框架构建。该团队利用现有的公平框架,在编码之前构建了一个类别矩阵:(1) 包容性语言,(2) 恢复性实践,(3) 惩罚性关注,以及 (4) 学生支持资源。每个类别都有包含和排除规则以及例句。

分析和报告。跨表查询按大学类型(公共旗舰、区域公共、私人非营利组织)统计类别计数。私立机构表现出更高比例的 “包容性语言 ”和 “学生支持”,而惩罚性语言在地区公众中占主导地位。该报告以条形图的形式展示了这些比例,并引用了说明性句子,以说明股票参考如何因机构使命而异。

实际结果。 研究结果为政策简报提供了信息,该简报强调了差距领域,并提出了基于同行机构的更高频率恢复性声明的修订模板。

这些例子展示了归纳和演绎逻辑如何指导框架开发,单位选择如何塑造可比性,以及可信度检查如何与研究设计保持一致,而不是一刀切的协议。

定性数据分析软件

虽然可以使用 Microsoft Word 文件和 Microsoft Excel 电子表格进行定性内容分析,但专用研究软件可以管理重复性任务、跟踪决策并以手动系统难以匹配的方式组织证据。

下面的 Lumivero 定性数据分析软件满足了大多数研究人员对导入数据、应用代码、查询模式和导出结果的需求,从而简化了定性内容分析。两者都可以在 Windows 和 macOS 上运行,支持混合媒体项目,并允许团队通过服务器或云插件共享同一个项目文件。在它们之间进行选择归结为界面首选项、协作工作流程和所需分析工具的深度。

NVivo

NVivo 将所有内容(源、代码、备忘录和分类)分组到一个项目文件中。只需单击几下即可导入文本、音频、视频、图像、PDF 和 Web 捕获,并保留原始格式。

编码是通过熟悉的 highlight-and-assign作来处理的,该作的工作方式与常见文字处理器中的注释函数非常相似。当理论上证明重叠是合理的时,分析师可以将同一细分标记为多个代码,并且拖放功能允许他们动态合并或重新组织节点。

NVivo 中的查询函数为内容分析提供了强大的支持。编码查询检索链接到所选代码的源中的所有区段,这对于检查概念在访谈和策略文本中出现的一致性非常有用。矩阵编码查询跨越两组代码(例如,按医院科室划分的错误类型),以创建一个列联表,该表显示每个单元格的计数和文本数据提取。用户可以将这些矩阵导出到 Excel 以进行进一步的统计,或将它们直接复制到报告中。

NVivo 的自动洞察包括词频列表、词云和由大型语言模型提供支持的主题摘要。这些工具可以快速了解主导语言,而不会取代人工解释。分类表存储人口统计或组织元数据,这些元数据直接输入到交叉表查询中,从而更容易按参与者组或文档类型比较模式。

独立项目的合并功能支持团队合作,但较大的团队通常会选择 Collaboration Cloud 服务。它管理签出和签入,因此用户永远不会覆盖彼此的工作。审计日志记录项目更改,这在可信度检查期间很有价值。NVivo 的容量限制很高,有数千个源和代码,但非常大的视频数据集需要足够的硬件才能实现最佳性能。

ATLAS.ti

ATLAS.ti 将项目视为链接对象的网络,而不是单个容器。文档、代码、备忘录、引文和组显示在侧面板中,这些侧面板可以平铺或浮动在多个显示器上。这种布局适合喜欢在工作时查看关系的分析师,因为链接是通过从一个对象拖动到另一个对象来创建的。该软件支持所有常见的数据类型,并嵌入了一个转录编辑器,用于将音频或视频与时间戳同步。

编码过程使用类似于 XML 的标记模型:每个报价单接收一个或多个显示在旁注中的代码标签。代码列表可以按组、颜色或创建日期进行筛选。逐个代码的注释直接位于每个标签下,便于将作定义与示例一起存储。ATLAS.ti 的网络视图允许用户在代码、备忘录和文档之间绘制链接线,从而生成可兼作分析备忘录的可视化地图。

对于内容分析,代码共现表和代码-文档表提供了代码重叠频率或出现位置的快速计数。分析师可以设置邻近规则(相同的引文、相同的句子或在“x”个单词内)来优化这些计数。该表将导出到 Excel 或 SPSS 以进行其他分析。情感分析工具对整个数据集中的积极和消极语气进行评分,这可以指导在研究情感语言时进一步细化类别。

团队受益于存储在 ATLAS.ti Cloud 或网络驱动器上的多用户项目,以及基于用户的访问控制以防止意外编辑。评论日志列出了每项更改,显示谁移动了代码或编辑了备忘录。通过内置函数检查 Intercoder 协议,该函数计算 Krippendorff 的α并通过代码可视化协议,帮助团队及早解决分歧。

ATLAS.ti 与外部参考管理器和调查平台集成。一个。QDpx 导出可确保与其他 CAQDAS 程序的互作性,因此研究人员可以在机构许可证发生变化时移动项目。定价模式对个人基于订阅,对机构来说是永久的,为短期项目提供了灵活性。当关系分析是研究设计的核心时,用户经常引用其网络图和灵活链接作为选择它的理由。

准备好简化您的定性分析了吗?

无论您是编写社交媒体帖子、政策文档还是采访记录,正确的工具都会让您大不相同。Lumivero 的定性研究软件可帮助您管理、编码和可视化数据,而不会丢失使定性工作如此强大的细微差别。

类似文章