董小姐袭莹的医学博士学位论文

对应老买买提的军事天地,观点交锋比较激烈。因为此版帖子太多,所以新帖不出现在首页新帖列表,防止首页新帖刷屏太快。

版主: Softfist

TOP_TOP楼主
自助冻结自助冻结
帖子互动: 612
帖子: 10450
注册时间: 2024年 1月 23日 13:37

#1 董小姐袭莹的医学博士学位论文

帖子 TOP_TOP楼主 »

图片
我不发帖,我只是帖子的搬运工
TOP_TOP楼主
自助冻结自助冻结
帖子互动: 612
帖子: 10450
注册时间: 2024年 1月 23日 13:37

#2 Re: 董小姐袭莹的医学博士学位论文

帖子 TOP_TOP楼主 »

图片
我不发帖,我只是帖子的搬运工
TOP_TOP楼主
自助冻结自助冻结
帖子互动: 612
帖子: 10450
注册时间: 2024年 1月 23日 13:37

#3 Re: 董小姐袭莹的医学博士学位论文

帖子 TOP_TOP楼主 »

图片
我不发帖,我只是帖子的搬运工
TOP_TOP楼主
自助冻结自助冻结
帖子互动: 612
帖子: 10450
注册时间: 2024年 1月 23日 13:37

#4 Re: 董小姐袭莹的医学博士学位论文

帖子 TOP_TOP楼主 »

图片
我不发帖,我只是帖子的搬运工
头像
hhcare(耗子)
论坛元老
论坛元老
2024年度十大优秀网友
帖子互动: 1798
帖子: 57138
注册时间: 2022年 7月 29日 10:28

#5 Re: 董小姐袭莹的医学博士学位论文

帖子 hhcare(耗子) »

那个好字
就是一个奸字

你我平安喜乐就奸
上次由 hhcare 在 2025年 4月 29日 11:03 修改。
TOP_TOP楼主
自助冻结自助冻结
帖子互动: 612
帖子: 10450
注册时间: 2024年 1月 23日 13:37

#6 Re: 董小姐袭莹的医学博士学位论文

帖子 TOP_TOP楼主 »

这路遥马急的人间, 我们大家随便操操董小姐就好。。。
我不发帖,我只是帖子的搬运工
feng3
论坛点评
论坛点评
帖子互动: 205
帖子: 2853
注册时间: 2024年 1月 3日 16:05

#7 Re: 董小姐袭莹的医学博士学位论文

帖子 feng3 »

目录部分中文部分英文几个意思?国内博士论文都这样吗
TOP_TOP楼主
自助冻结自助冻结
帖子互动: 612
帖子: 10450
注册时间: 2024年 1月 23日 13:37

#8 Re: 董小姐袭莹的医学博士学位论文

帖子 TOP_TOP楼主 »

中文摘要
------------

背景:影像学检查是医疗领域最常用的筛查手段,据统计,医疗数据总量中有超过90%是由影像数据构成[1。然而,根据亲身参与的临床病例[2可知,很多情况下,仅凭医生的肉眼观察和主观诊断经验,不足以对影像学异常作一明确判断。而诊断不明引起的频繁就医、贻误病情,则会严重影响患者的生活质量。相较于传统的主观阅片,人工智能技术通过深度神经网络分析大量影像和诊断数据,学习对病理诊断有用的特征,在客观数据的支持下做出更准确的判断。为了模拟临床医生结合各种成像模式(如 CT、MRI 和 PET)形成诊断的过程,本项目采用跨模态深度学习方法,将各种影像学模态特征进行有机结合,充分利用其各自的独特优势训练深度神经网络,以提高模型性能。鉴于肿瘤相关的影像学资料相对丰富,本项目以宫颈癌和乳腺癌骨转移为例,测试了跨模态深度学习方法在病变区域定位和辅助诊断方面的性能,以解决临床实际问题。

方法:第一部分回顾性纳入了 220 例有 FDG-PET/CT 数据的宫颈癌患者,共计 72,602张切片图像。应用多种图像预处理策略对 PET 和 CT 图像进行图像增强,并进行感兴趣区域边缘检测、自适应定位和跨模态图像对齐。将对齐后的图像在通道上级联输入目标检测网络进行检测、分析及结果评估。通过与使用单一模态图像及其他 PET -CT 融合方法进行比较,验证本项目提出的 PET -CT 自适应区域特征融合结果在提高模型目标检测性能方面具有显著性优势。第二部分回顾性纳入了 233 例乳腺癌患者,每例样本包含 CT、MRI、或 PET 一至三种模态的全身影像数据,共有3051 张 CT 切片,3543 张 MRI 切片,1818 张 PET 切片。首先训练 YOLOv5 对每种单一模态图像中的骨转移病灶进行目标检测。根据检测框的置信度划分八个区间,统计每个影像序列不同置信度区间中含有检出骨转移病灶的个数,并以此归一化后作为结构化医疗特征数据,采用级联方式融合三种模态的结构化特征实现跨模态特征融合。再用多种分类模型对结构化数据进行分类和评估。将基于特征转换的跨模态融合数据与特征转换后的单模态结构化数据,以及基于 C3D 分类模型的前融合方式进行比较,验证第二部分提出的方法在乳腺癌骨转移诊断任务中的优越性能。

结果:第一部分的基于跨模态融合的肿瘤检测实验证明,PET -CT 自适应区域特征融合图像显著提高了宫颈癌病变区域检测的准确性。相比使用 CT 或 PET 单模态图像以及其他融合方法生成的多模态图像作为网络输入,目标检测的平均精确度分别提高了 6.06%和 8.9%,且消除了一些假阳性结果。上述测试结果在使用不同的目标检测模型的情况下保持一致,这表明自适应跨模态融合方法有良好的通用性,可以泛化应用于各种目标检测模型的预处理阶段。第二部分基于特征转换的跨模态病例分类实验证明,跨模态融合数据显著提高了乳腺癌骨转移诊断任务的性能。相较于单模态数据,跨模态融合数据的平均准确率和 AUC 分别提高了 7.9%和 8.5%,观察 ROC 曲线和 PR 曲线的形状和面积也具有相同的实验结论:在不同的分类模型中,使用基于特征转换的跨模态数据,相比单模态数据,对于骨转移病例的分类性能更为优越。而相较于基于 C3D 的前融合分类模型,基于特征转换的后融合策略在分类任务方面的性能更优。

结论:本项目主要包含两个部分。第一部分证实了基于区域特征匹配的跨模态图像融合后的数据集在检测性能上优于单模态医学图像数据集和其他融合方法。第二部分提出了一种基于特征转换的跨模态数据融合方法。使用融合后的数据进行分类任务,其分类性能优于仅使用单模态数据进行分类或使用前融合方法的性能。根据不同模态医学图像的特征差异与互补性,本项目验证了跨模态深度学习技术在病变区域定位和辅助诊断方面的优势。相比于只使用单模态数据进行训练的模型,跨模态深度学习技术有更优的诊断准确率,可以有效的成为临床辅助工具,协助和指导临床决策。
我不发帖,我只是帖子的搬运工
TOP_TOP楼主
自助冻结自助冻结
帖子互动: 612
帖子: 10450
注册时间: 2024年 1月 23日 13:37

#9 Re: 董小姐袭莹的医学博士学位论文

帖子 TOP_TOP楼主 »

英文摘要
---------------------

Background: Imaging examinations serve as the predominant screening method in the medical field. As statistics reveal, imaging data constitute over 90% of the entire medical dataset. Nonetheless, clinical cases have demonstrated that mere subjective diagnoses by clinicians often fall short in making definitive judgments on imaging anomalies. Misdiagnoses or undiagnosed conditions, which result in frequent hospital visits and delayed treatment, can profoundly affect patients' quality of life. Compared to the traditional subjective image interpretation by clinicians, AI leverages deep neural networks to analyze large-scale imaging and diagnostic data, extracting valuable features for pathology diagnosis, and thus facilitating more accurate decisionmaking, underpinned by objective data. To emulate clinicians' diagnostic process that integrates various imaging modalities like CT, MRI, and PET, a cross-modal deep learning methodology is employed. This approach synergistically merges features from different imaging modalities, capitalizing on their unique advantages to enhance model performance. Given the ample availability of oncologic imaging data, the project exemplifies the efficacy of this approach in cervical cancer segmentation and detection of breast cancer bone metastasis, thereby addressing pragmatic challenges in clinical practice.

Methods: The first part retrospectively analyzed 72,602 slices of FDG-PET/CT scans from 220 cervical cancer patients. Various preprocessing strategies were applied to enhance PET and CT images, including edge detection, adaptive ROI localization, and cross-modal image fusion. The fused images were then concatenated on a channel-wise basis and fed into the object detection network for the precise segmentation of cervical cancer lesions. Compared to single modality images (either CT or PET) and alternative PET -CT fusion techniques, the proposed method of PET -CT adaptive fusion was found to significantly enhance the object detection performance of the model. The second part of the study retrospectively analyzed 3,051 CT slices, 3,543 MRI slices and 1,818 PET slices from 233 breast cancer patients, with each case containing whole-body imaging of one to three modalities (CT, MRI, or PET). Initially, YOLOv5 was trained to detect bone metastases in images across different modalities. The confidence levels of the prediction boxes were segregated into eight tiers, following which the number of boxes predicting bone metastases in each imaging sequence was tallied within each confidence tier. This count was then normalized and utilized as a structured feature. The structured features from the three modalities were fused in a cascaded manner for cross-modal fusion. Subsequently, a variety of classification models were then employed to evaluate the structured features for diagnosing bone metastasis. In comparison to feature-transformed single-modal data and the C3D early fusion method, the cross-modal fusion data founded on feature transformation demonstrated superior performance in diagnosing breast cancer bone metastasis.

Results: The first part of our study delivered compelling experimental results, showing a significant improvement in the accuracy of cervical cancer segmentation when using adaptively fused PET -CT images. Our approach outperformed other object detection algorithms based on either single-modal images or multimodal images fused by other methods, with an average accuracy improvement of 6.06% and 8.9%, respectively, while also effectively mitigating false-positive results. These promising test results remained consistent across different object detection models, highlighting the robustness and universality of our adaptive fusion method, which can be generalized in the preprocessing stage of diverse object detection models. The second part of our study demonstrated that cross-modal fusion based on feature transformation could significantly improve the performance of bone metastasis classification models. When compared to algorithms employing single-modal data, models based on cross-modal data had an average increase in accuracy and AUC of 7.9% and 8.5%, respectively. This improvement was further corroborated by the shapes of the ROC and PR curves. Across a range of classification models, feature-transformed cross-modal data consistently outperformed single-modal data in diagnosing breast cancer bone metastasis. Moreover, late fusion strategies grounded in feature transformation exhibited superior performance in classification tasks when juxtaposed with early fusion methods such as C3D.

Conclusions: This project primarily consists of two parts. The first part substantiates that deep learning object detection networks founded on the adaptive cross-modal image fusion method outperform those based on single-modal images or alternative fusion methods. The second part presents a cross-modal fusion approach based on feature transformation. When the fused features are deployed for classification models, they outperform those utilizing solely single-modal data or the early fusion model. In light of the differences and complementarity in the features of various image modalities, this project underscores the strengths of cross-modal deep learning in lesion segmentation and disease classification. When compared to models trained only on single-modal data, cross-modal deep learning offers superior diagnostic accuracy, thereby serving as an effective tool to assist in clinical decision-making.
我不发帖,我只是帖子的搬运工
TOP_TOP楼主
自助冻结自助冻结
帖子互动: 612
帖子: 10450
注册时间: 2024年 1月 23日 13:37

#10 Re: 董小姐袭莹的医学博士学位论文

帖子 TOP_TOP楼主 »

haha, 土鳖国论文喜欢中英文杂交,非常搞笑
feng3 写了: 2025年 4月 29日 11:06 目录部分中文部分英文几个意思?国内博士论文都这样吗
我不发帖,我只是帖子的搬运工
弃婴千枝
论坛支柱
论坛支柱
帖子互动: 985
帖子: 11310
注册时间: 2022年 7月 27日 10:51

#11 Re: 董小姐袭莹的医学博士学位论文

帖子 弃婴千枝 »

TOP_TOP 写了: 2025年 4月 29日 11:12 haha, 土鳖国论文喜欢中英文杂交,非常搞笑
囼巴子太搞笑了,所有学位论文都要提交英文摘要
TOP_TOP楼主
自助冻结自助冻结
帖子互动: 612
帖子: 10450
注册时间: 2024年 1月 23日 13:37

#12 Re: 董小姐袭莹的医学博士学位论文

帖子 TOP_TOP楼主 »

不要搞错了, 我一个大陆难民,跟台湾没有任何关联, 呵呵,我爱台妹属实。
弃婴千枝 写了: 2025年 4月 29日 11:15 囼巴子太搞笑了,所有学位论文都要提交英文摘要
我不发帖,我只是帖子的搬运工
TOP_TOP楼主
自助冻结自助冻结
帖子互动: 612
帖子: 10450
注册时间: 2024年 1月 23日 13:37

#13 Re: 董小姐袭莹的医学博士学位论文

帖子 TOP_TOP楼主 »

各位人工智能专家评价一下吧: 董小姐的论文,大概属于什么水平?
我不发帖,我只是帖子的搬运工
haiwaihuaren
论坛元老
论坛元老
帖子互动: 1086
帖子: 14832
注册时间: 2022年 7月 25日 13:06

#14 Re: 董小姐袭莹的医学博士学位论文

帖子 haiwaihuaren »

吹憋国科研牛逼的五毛逼看看你院士爷爷指导的博士论文太牛逼了
x1 图片
haiwaihuaren
论坛元老
论坛元老
帖子互动: 1086
帖子: 14832
注册时间: 2022年 7月 25日 13:06

#15 Re: 董小姐袭莹的医学博士学位论文

帖子 haiwaihuaren »

弃婴千枝 写了: 2025年 4月 29日 11:15 囼巴子太搞笑了,所有学位论文都要提交英文摘要
傻逼五毛,纯属脱了裤子放屁的政策
haiwaihuaren
论坛元老
论坛元老
帖子互动: 1086
帖子: 14832
注册时间: 2022年 7月 25日 13:06

#16 Re: 董小姐袭莹的医学博士学位论文

帖子 haiwaihuaren »

feng3 写了: 2025年 4月 29日 11:06 目录部分中文部分英文几个意思?国内博士论文都这样吗
海龟证明自己懂英文 :lol:
53general
见习作家
见习作家
帖子互动: 41
帖子: 367
注册时间: 2023年 9月 26日 15:32

#17 Re: 董小姐袭莹的医学博士学位论文

帖子 53general »

MD论文本来就是做做样子的,4,5年时间学专业课都吃力,哪有时间精力做研究。真讲究一点的得是MD/PhD,但那要读8年。
TOP_TOP楼主
自助冻结自助冻结
帖子互动: 612
帖子: 10450
注册时间: 2024年 1月 23日 13:37

#18 Re: 董小姐袭莹的医学博士学位论文

帖子 TOP_TOP楼主 »

董小姐2019年入学,2023年医学博士毕业,花了4年(疫情网课为主);之前是个经济学学渣
53general 写了: 2025年 4月 29日 11:30 MD论文本来就是做做样子的,4,5年时间学专业课都吃力,哪有时间精力做研究。真讲究一点的得是MD/PhD,但那要读8年。
我不发帖,我只是帖子的搬运工
quentin(奉孝为先)
著名写手
著名写手
帖子互动: 22
帖子: 334
注册时间: 2022年 12月 30日 02:59

#19 Re: 董小姐袭莹的医学博士学位论文

帖子 quentin(奉孝为先) »

说实话,北大和哥大,都丢脸

哥大经济学本科,lol
说来说去,你还是傻
island
知名作家
知名作家
帖子互动: 52
帖子: 838
注册时间: 2022年 9月 3日 23:14

#20 Re: 董小姐袭莹的医学博士学位论文

帖子 island »

主要内容相当于高年级本科或者研究生课大作业的水平。

当然小董写的长了一点。
TOP_TOP 写了: 2025年 4月 29日 11:17 各位人工智能专家评价一下吧: 董小姐的论文,大概属于什么水平?
回复

回到 “军事天地(Military)”