ZangYF Group's CVs

AlphaSim矫正咨询

 各位老师好,我在使用SPM做双样本T检验的时候,explicit mask选用的是我的单样本T检验结果的并集MASK,这样的话最后双样本T检验的结果如果使用AlphaSim矫正的话,就不能直接使用REST slice viewer里面自带的那个表里的参数了吧?需要重新对我的并集MASK进行AlphaSim值进行评估,我想再问下如图中,在估计AlphaSim的时候这里的P值是什么意思?估计的时候需要改吗?

Three newly released toolboxes: ES Calc, TUMOR, Decom (all beta version), try and have fun!

I, on behalf of all contributors, would like to announce that three toolboxes are released for free downloading. All of them are Matlab-based, thus unzip and setpath is required (we encourage setpath SPM8, REST, DPARSF as well). For more details please see each toolbox's manual. These software are beta version v1.0, so please feel free to pose any comment, feedback, bug report, suggestions. We will make them better accordingly. I'd like to briefly state the usage of them:

1. ES Calc: Toolbox (effect_size.zip) as well as manual (English version and Chinese version).

DPABI中AlphaSim矫正问题

 各位老师好,我最近使用你们开发的DPABI处理了一批数据,包括病人和正常人。然后我计算ReHo和ALFF,对两组被试做双本T检验,在对统计结果进行多重比较矫正的时候,我使用AlphaSim矫正,但是我在评估那个最小Cluster时候结果总是很大,如图,不管是ReHo还是ALFF都这样,我估计的时候使用的MASK是软件自带的61*73*61的灰质MASK,单个体素p值是0.01,估计出来的 Cluster总是两百多,这个正常吗?之前看你的REST里面的表都是几十(虽然你讲过用预处理估计有问题,我觉得也不至于差这么多吧),请指导 下~~问题出在哪?可能。

fmri数据的detrend and filter

老师,您好!
我想问一下,由于我的fmri数据太大,转换成hdr/img文件共2400个,所以没有办法一次做detrend和filter,总是out of memory,而且试了很多次大概一次240个对象(120个hdr和120个img)比较合适,那么如果我把它们分开放在几个文件中分别做detrend和filter可以吗?这么多的time points,我应该去除前多少个比较好呢,或者用多少个比较好呢?
我现在用的是spm8,数据是转成3D的nifti还是4D的好呢?