Table of Contents
Extrayendo los datos de los informes de MRI FACE
Obteniendo los StudyID
Lo primero es sacar los Study ID de cada MRI. Primero saco los sujetos del proyecto y los asocio a los IDs almacenados como label del experimento.
[osotolongo@brick03 mri_face]$ xnatapic list_subjects --project_id unidad --label > xnat_subjects.list [osotolongo@brick03 mri_face]$ while read -r line; do sbj=$(echo ${line} | awk -F"," '{print $1}'); slbl=$(echo ${line} | awk -F"," '{print $2}'); xpr=$(xnatapic list_experiments --project_id unidad --subject_id ${sbj} --modality MRI --label); echo "${slbl},${xpr}"; done < xnat_subjects.list | awk -F"," '{print $1","$3}' > sbj_ids.csv [osotolongo@brick03 mri_face]$ head sbj_ids.csv 20211269,D18290542 20211480,D21572561 20211176,D14074193 20151338,D21587192 20211523,D21587226 20211401,D21587147 20211281,D21580074 20210716,D21587448 20081210,D21582920 20211482,D21583488
Nota: Revisar el codigo y cambiar los ID, que no son estos.
Estoy migrando de PatientID a StudyID,
[osotolongo@brick03 mri_face]$ for x in reports_archive/*.txt; do p=$(grep "^D[0-9]*$" ${x}); r=$(basename ${x} | sed 's/\.txt//'); a=$(grep "^[0-9]D[0-9]*$" ${x}); echo "${r},${p},${a}"; done > accesion_ids.csv [osotolongo@brick03 mri_face]$ xnatapic get_jsession 65F92C34AC318AB2A6A7D1BE3506A317 [osotolongo@brick03 mri_face]$ while read -r line; do s=$(echo ${line} | awk -F',' '{print $1}'); aid=$(echo ${line} | awk -F',' '{print $3}'); eid=$(xnatapic list_experiments --project_id mriface --subject_id ${s} --modality MRI); curl -f -X PUT -b "JSESSIONID=65F92C34AC318AB2A6A7D1BE3506A317" "http://detritus.fundacioace.com:8088/data/projects/mriface/subjects/${s}/experiments/${eid}?label=${aid}"; echo "${s}, ${aid} --> done"; done < accesion_ids.csv
Bajar PDFs
- Entrar en https://impax.corachan.com/
- Buscar por AccesionID
- Salvar el report como pdf con el numero interno
Nota:
Si vas sacando y te pierdes siempre pues hacer, de vez en cuando,
[osotolongo@brick03 mri_face]$ ls reports/*.pdf | sed 's/reports\/\(.*\)\.pdf/\1/' > sbjs_done.txt [osotolongo@brick03 mri_face]$ grep -v "^`cat sbjs_done.txt`" sbj_ids.csv > sbj_ids_todo.csv
para limpiar la lista de los que faltan
Sacar info
Los convierto a txt,
[osotolongo@brick03 mri_face]$ for x in reports/*.pdf ; do pdftotext ${x}; done [osotolongo@brick03 mri_face]$ ls reports/ 20081210.pdf 20140947.pdf 20151338.pdf 20201297.pdf 20211384.pdf 20211455.pdf 20211475.pdf 20211480.pdf 20211505.pdf 20211523.pdf 20211524.pdf 20211527.pdf 20211611.pdf 20081210.txt 20140947.txt 20151338.txt 20201297.txt 20211384.txt 20211455.txt 20211475.txt 20211480.txt 20211505.txt 20211523.txt 20211524.txt 20211527.txt 20211611.txt
Y voy a hacer un parser rapidito a ver que sale,
Y cuando casi eres feliz, te cambian la estructura de los informes
Ahora la estructura es mas parseable pero ojo, hay que incluir tambien los infromes con el formato antiguo. ¿A que la vida es maravillosa?
Entonces lo que he hecho es rehacer toda la logica desde el principio
y entonces ejecutando algo como,
$ ./parse1.pl reports/ > mri_face_reports.csv
Obtengo los valores en un xls y en un csv,
Subject,Date,Fazekas,GCA_D,GCA_I,Kipps_A_D,Kipps_A_I,Kipps_F_D,Kipps_F_I,Kipps_P_D,Kipps_P_I,Koedam_D,Koedam_I,Scheltens_D,Scheltens_I 20050456,2022-03-06,3,3,3,2,2,2,3,2,2,1,3,2,2 20081210,2021-12-02,1,1,1,NA,NA,NA,NA,NA,NA,1,1,0,0 20090461,2022-01-28,1,1,1,1,2,1,1,1,2,0,3,2,2 20100678,2022-01-16,0,2,2,2,2,2,2,2,2,2,3,3,3 20140947,2021-12-11,1,2,2,1,1,1,1,1,1,2,2,0,0 20150926,2022-01-26,2,2,2,2,2,2,2,3,3,2,3,2,3 20151338,2021-12-04,1,2,2,1,1,1,1,1,1,2,2,2,2 20160418,2021-12-11,3,2,2,2,2,2,2,2,2,1,1,3,3 20170735,2021-12-22,2,1,1,1,1,0,0,1,1,1,1,1,1
Nota: Se han tomado en cuenta algunas consideraciones extra, por peticion popular,
- Si no está Fazekas ponemos 0
- Añadimos la fecha de la MRI a la tabla
Guardando todo en XNAT
La logica es la siguiente. Este proyecto continuara hasta alcanzar numeros grandes. Si corro el parser cada vez sobre toda la muestra puede llegar a demorar y va ser difcil de revisar.
Asi que voy a guardar todo lo que pueda en XNAT para almacenarlo y podre ir haciendolo a trozos después.
Informes
Lo primero que todo es guardar los informes en PDF para que siempre esten listos para consulta. Para ello creamos un Resource en XNAT para el visual report,
y entonces subimos el informe con algo asi,
$ curl -f -X PUT -u "user:password" "http://detritus.fundacioace.com:8088/data/experiments/XNAT4_EXXXX/resources/RVR/files/report_XUSER.pdf?overwrite=true" -F file="@/path/to/report/XXXXX.pdf"
Agregando datos del informe
Ahora quiero guardar los datos extra de cada informe como otro resource. Digamos que tengo un CSV de este estilo,
Subject,ATM_I,ATM_D,ACG,Fazekas F001,NA,NA,NA,1 F002,2,2,NA,1 F003,0,0,NA,1 F005,NA,0,NA,1 F006,1,0,NA,1 F007,0,1,NA,0 F008,1,0,NA,NA F009,0,0,NA,2 F010,0,NA,NA,1
pero los campos pueden variar. Lo que hago es importar el csv automagicamente con Text::CSV y crear un archivo json para copiar en cada RVR.
Por partes, importo el csv,
my $ref_vr = csv(in => $vrfile, headers => "auto");
y creo el json en un archivo temporal con todos los campos,
foreach my $mrdata (@$ref_vr){ my $rep_body = '{"ResultSet":{"Result":[{'; my @rep_arr; foreach my $rk (sort keys %$mrdata){ #if ($rk ne 'Subject' and $rk ne 'Date'){ push @rep_arr, '"'.$rk.'":"'.${$mrdata}{$rk}.'"'; #} } $rep_body .= join ',', @rep_arr; $rep_body .= '}]}}'; my $tvrf = mktemp($tmp_dir.'/rvr_data.XXXXX'); open TDF, ">$tvrf"; print TDF "$rep_body\n"; close TDF; }
Ahor para subir ese archivo temporal tengo que hacer algo como,
$ curl -f -X PUT -u "user:pass" "connection_site/data/experiments/experimento_evaluado/resources/RVR/files/report_data.json?overwrite=true" -F file="@archivo_temporal"
Asi que dentro del sitio he de hacer,
my $xcurl = 'curl -f -X PUT -u "'.$xconf{'USER'}.':'.$xconf{'PASSWORD'}.'" "'.$xconf{'HOST'}.'/data/experiments/'.$vrdata{${$mrdata}{'Subject'}}.'/resources/RVR/files/report_data.json?overwrite=true" -F file="@'.$tvrf.'"'; print "$xcurl\n"; system($xcurl); unlink $tvrf;
Subiendo todo
mirar sesiones aqui: https://wiki.xnat.org/documentation/how-to-use-xnat/generating-and-reusing-a-jsession-id-for-scripted-interactions
Lo que hago es unir todo esto en un solo script Perl
que ejecuto como,
[osotolongo@brick03 mri_face]$ ./xnat_up_rvr.pl -i /nas/osotolongo/parsing/atm_v2_rev_again.csv -d /nas/osotolongo/parsing/facehbi_informes_mri/v2/pdfs/ -x f2cehbi % Total % Received % Xferd Average Speed Time Time Time Current Dload Upload Total Spent Left Speed 100 32 100 32 0 0 307 0 --:--:-- --:--:-- --:--:-- 310 curl -f -X PUT -b JSESSIONID=EAD2EA07CDEE33D3D5178C11FF4EF514 "http://detritus.fundacioace.com:8088/data/experiments/XNAT5_E00001/resources/RVR/files/report_F001.pdf?overwrite=true" -F file="@/nas/osotolongo/parsing/facehbi_informes_mri/v2/pdfs/F001.pdf" curl -f -X PUT -b JSESSIONID=EAD2EA07CDEE33D3D5178C11FF4EF514 "http://detritus.fundacioace.com:8088/data/experiments/XNAT5_E00087/resources/RVR/files/report_F002.pdf?overwrite=true" -F file="@/nas/osotolongo/parsing/facehbi_informes_mri/v2/pdfs/F002.pdf" curl -f -X PUT -b JSESSIONID=EAD2EA07CDEE33D3D5178C11FF4EF514 "http://detritus.fundacioace.com:8088/data/experiments/XNAT5_E00088/resources/RVR/files/report_F003.pdf?overwrite=true" -F file="@/nas/osotolongo/parsing/facehbi_informes_mri/v2/pdfs/F003.pdf" curl -f -X PUT -b JSESSIONID=EAD2EA07CDEE33D3D5178C11FF4EF514 "http://detritus.fundacioace.com:8088/data/experiments/XNAT5_E00089/resources/RVR/files/report_F005.pdf?overwrite=true" -F file="@/nas/osotolongo/parsing/facehbi_informes_mri/v2/pdfs/F005.pdf" ... ... ... curl -f -X PUT -b JSESSIONID=EAD2EA07CDEE33D3D5178C11FF4EF514 "http://detritus.fundacioace.com:8088/data/experiments/XNAT5_E00697/resources/RVR/files/report_data.json?overwrite=true" -F file="@/old_nas/osotolongo/tmp/rvr_data.BgByl" curl -f -X PUT -b JSESSIONID=EAD2EA07CDEE33D3D5178C11FF4EF514 "http://detritus.fundacioace.com:8088/data/experiments/XNAT5_E00698/resources/RVR/files/report_data.json?overwrite=true" -F file="@/old_nas/osotolongo/tmp/rvr_data.SzT2s" curl -f -X PUT -b JSESSIONID=EAD2EA07CDEE33D3D5178C11FF4EF514 "http://detritus.fundacioace.com:8088/data/experiments/XNAT5_E00699/resources/RVR/files/report_data.json?overwrite=true" -F file="@/old_nas/osotolongo/tmp/rvr_data.vyeh8" curl -f -X PUT -b JSESSIONID=EAD2EA07CDEE33D3D5178C11FF4EF514 "http://detritus.fundacioace.com:8088/data/experiments/XNAT5_E00700/resources/RVR/files/report_data.json?overwrite=true" -F file="@/old_nas/osotolongo/tmp/rvr_data.zJvbo" curl -f -X PUT -b JSESSIONID=EAD2EA07CDEE33D3D5178C11FF4EF514 "http://detritus.fundacioace.com:8088/data/experiments/XNAT5_E00701/resources/RVR/files/report_data.json?overwrite=true" -F file="@/old_nas/osotolongo/tmp/rvr_data.55aWS" curl -f -X PUT -b JSESSIONID=EAD2EA07CDEE33D3D5178C11FF4EF514 "http://detritus.fundacioace.com:8088/data/experiments/XNAT5_E00702/resources/RVR/files/report_data.json?overwrite=true" -F file="@/old_nas/osotolongo/tmp/rvr_data.5m_vZ" curl -f -X PUT -b JSESSIONID=EAD2EA07CDEE33D3D5178C11FF4EF514 "http://detritus.fundacioace.com:8088/data/experiments/XNAT5_E00703/resources/RVR/files/report_data.json?overwrite=true" -F file="@/old_nas/osotolongo/tmp/rvr_data.KIa5m"
Nota: El script es lo suficientemente abstracto pra ser incluido en el pipeline!!!!!
Datos demograficos
Como he de sacar los datos demograficos de la DB de Ekon, el primer paso es extraer los ID de los sujetos del proyecto de XNAT, estos deben corresponder al NHC en la DB. Esta parte es sencilla,
[osotolongo@brick03 mri_face]$ curl -f -X GET -u "user:pass" "http://detritus.fundacioace.com:8088/data/projects/unidad/subjects?format=csv" > all_subjects.csv % Total % Received % Xferd Average Speed Time Time Time Current Dload Upload Total Spent Left Speed 100 10597 0 10597 0 0 56014 0 --:--:-- --:--:-- --:--:-- 56367 [osotolongo@brick03 mri_face]$ head all_subjects.csv ID,project,label,insert_date,insert_user,URI XNAT05_S00035,unidad,20211269,2021-12-18 20:49:07.368,osotolongo,/data/subjects/XNAT05_S00035 XNAT05_S00042,unidad,20211480,2021-12-18 23:30:44.428,osotolongo,/data/subjects/XNAT05_S00042 XNAT05_S00062,unidad,20211176,2021-12-21 09:59:53.012,osotolongo,/data/subjects/XNAT05_S00062 XNAT05_S00027,unidad,20151338,2021-12-17 16:24:22.916,osotolongo,/data/subjects/XNAT05_S00027 XNAT05_S00028,unidad,20211523,2021-12-17 16:34:33.423,osotolongo,/data/subjects/XNAT05_S00028 XNAT05_S00030,unidad,20211401,2021-12-18 08:08:35.051,osotolongo,/data/subjects/XNAT05_S00030 XNAT05_S00031,unidad,20211281,2021-12-18 09:22:07.411,osotolongo,/data/subjects/XNAT05_S00031 XNAT05_S00032,unidad,20210716,2021-12-18 14:02:44.009,osotolongo,/data/subjects/XNAT05_S00032 XNAT05_S00033,unidad,20081210,2021-12-18 18:36:35.746,osotolongo,/data/subjects/XNAT05_S00033
Ahora para cada uno de los label, he de ejecutar,
[osotolongo@brick03 mri_face]$ sqlcmd ${connection_chain} -s "," -W -Q "SELECT his_interno, xfecha_nac, xsexo_id FROM [UNIT4_DATA].[imp].[vh_pac_gral] WHERE his_interno = '"${nhc}"';" | grep ${nhc} 20200484,1945-05-27 00:00:00.000,2
Nota: En la DB de Ekon, 1 → male, 2 → female
Entonces con estos datos he de construir un CSV para importar en XNAT.
Para construir el CSV con los datos demograficos de todo el proyecto basta hacer,
Nota: procedimiento obsoleto ver preanon.sh y update_sbj.pl dentro de /old_nas/mri_face
$ ./make_csv.pl -x proyecto
(si no se pone el nombre de proyecto toma como default unidad)
Si solo quiero hacer unos pocos,
$ cat newones.list 20220534 20210104 20210474 20171653 $ ./make_csv.pl -i newones.list
Y ahora puedo usar este metodo para subir el CSV
Obteniendo los datos de XNAT
Ahora voy a intentar rescatar desde XNAT los valores de RVR que he subido. Esto es, no hay una estructura fija, en principio, asi que tengo que obtener cualesquiera de los datos que haya definidos en el proyecto.
Para empezar se accede a XNAT y se abre la sesion,
my $xconf_file = $ENV{'HOME'}.'/.xnatapic/xnat.conf'; my %xconf; open IDF, "<$xconf_file"; while (<IDF>){ if (/^#.*/ or /^\s*$/) { next; } my ($n, $v) = /(.*)=(.*)/; $xconf{$n} = $v; } my $q = 'curl -f -X POST -u "'.$xconf{'USER'}.':'.$xconf{'PASSWORD'}.'" "'.$xconf{'HOST'}.'/data/JSESSION"'; my $jid = qx/$q/;
y ahora vamos a tomar la lista de sujetos,
my %subjects; $q = 'curl -f -b JSESSIONID='.$jid.' -X GET "'.$xconf{'HOST'}.'/data/projects/'.$xprj.'/subjects?format=csv&columns=ID,label"'; my @sbj_res = split '\n', qx/$q/;
Esta respuesta de XNAT no es precisamente la lista de sujetos pero es bastante similar a lo que queremos y podemos ir recorriendo el array y construyendo nuestro output desde ahi.
foreach my $sbj_prop (@sbj_res){ if ($sbj_prop =~ /^XNAT/){ my ($sid,$slabel) = $sbj_prop =~ /^(XNAT.+),(\S+),(.*)$/; $subjects{$sid}{'label'} = $slabel;
asi, separamos el valor de sid que es el ID asignado por XNAT y el label que no es mas que el ID que hemos asignado en nuestro proyecto. Ahora si hacemos,
my $qe = 'curl -f -b JSESSIONID='.$jid.' -X GET "'.$xconf{'HOST'}.'/data/projects/'.$xprj.'/subjects/'.$sid.'/experiments?format=json&xsiType=xnat:mrSessionData"'; my $json_res = qx/$qe/;
Obtenemos un json con los experimentos del sujeto (tipicamente uno solo). Y usando el modulo JSON meto los contenidos en un AoH.
my $exp_prop = decode_json $json_res; foreach my $experiment (@{$exp_prop->{'ResultSet'}{'Result'}}){ $subjects{$sid}{'experimentID'} = $experiment->{'ID'}; }
y ahora voy a obtener el archivo RVR que haya guardado y convertirlo en una fila del CSV.
if (exists($subjects{$sid}{'experimentID'}) and $subjects{$sid}{'experimentID'}){ my $qr = 'curl -f -b JSESSIONID='.$jid.' -X GET "'.$xconf{'HOST'}.'/data/projects/'.$xprj.'/experiments/'.$subjects{$sid}{'experimentID'}.'/resources/RVR/files?format=json"'; $json_res = qx/$qr/; #print "$json_res\n"; my $rvr_prop = decode_json $json_res; my $report_uri; foreach my $rvr_res (@{$rvr_prop->{'ResultSet'}{'Result'}}){ if ($rvr_res->{'Name'} eq 'report_data.json'){ $report_uri = $rvr_res->{'URI'}; } } if ($report_uri){ $qr = 'curl -f -b JSESSIONID='.$jid.' -X GET "'.$xconf{'HOST'}.$report_uri.'"'; $json_res = qx/$qr/; #print "$json_res\n"; my $report_data = decode_json $json_res; foreach my $var_data (@{$report_data->{'ResultSet'}{'Result'}}){ my @akeys; my @adata; foreach my $kdata (sort keys %{$var_data}){ unless ($dhead){ push @akeys, $kdata unless $kdata eq 'Subject'; } push @adata, ${$var_data}{$kdata} unless $kdata eq 'Subject'; } $dhead = 'Subject,'. join ',', @akeys unless $dhead; $dbody .= ${$var_data}{'Subject'}.','. join ',', @adata; $dbody .= "\n"; } } }
Ojo, que como no se que estructura va a tener esto, solo veo de poner la columna Subject al inicio y lo demas lo intento adivinar automagicamente.
Pues esto despues de escupe a un archiv de output y ya esta.
Para lanzarlo ha de hacerse algo como,
$ ./xnat_get_rvr.pl -x unidad -o rvr_output.csv
y si no se especifica el nombre de archivo output se creara uno con nombre como proyecto_rvr_data.csv que deberia esperarse que fuera algo como,
[osotolongo@brick03 mri_face]$ head f5cehbi_rvr_data.csv Subject,ACG,ACP_D,ACP_I,ATM_D,ATM_I,Fazekas F005,1,2,2,0,1,1 F006,NA,NA,NA,0,1,1 F007,NA,NA,NA,1,0,0 F009,2,2,2,1,1,2 F010,NA,NA,NA,NA,NA,1 F014,NA,NA,NA,1,0,2 F015,1,1,1,1,1,NA F023,NA,NA,NA,0,1,2 F024,1,1,1,2,2,1
Eso segun elproyecto que sea y las variables que se hayan guardado en el resource RVR.
Sacando edad de XNAT
Para sacar la lista de sujetos del proyecto hago simplemente,
[osotolongo@brick03 ~]$ curl -b JSESSIONID=1709B38DD3BD206D00C3389592A4FC9E -X GET "http://detritus.fundacioace.com:8088/data/projects/unidad/subjects?format=csv&columns=ID,label"
La forma correcta de parsear el json para sacar la fecha de nacimiento es mas o menos asi,
[osotolongo@brick03 ~]$ curl -b JSESSIONID=1709B38DD3BD206D00C3389592A4FC9E -X GET 'http://detritus.fundacioace.com:8088/data/subjects/XNAT05_S00052?format=json' | jq '.items[0].children[] | select(.field=="demographics") | .items[0].data_fields.dob'
y para sacar la fecha del primer MRI asignado a sujeto es,
[osotolongo@brick03 ~]$ curl -b JSESSIONID=1709B38DD3BD206D00C3389592A4FC9E -X GET 'http://detritus.fundacioace.com:8088/data/projects/unidad/subjects/XNAT05_S00052/experiments?format=json' | jq '.ResultSet.Result[0].date'
o si se conoce el experimento,
[osotolongo@brick03 ~]$ curl -b JSESSIONID=1709B38DD3BD206D00C3389592A4FC9E -X GET 'http://detritus.fundacioace.com:8088/data/projects/unidad/subjects/XNAT05_S00052/experiments/XNAT05_E00065?format=json' | jq '.items[0].data_fields.date'
Asi que esto es un poco ir engranado todo
Ejem, me ha costado un poco darme cuenta que debo poner las echas como MM/DD/YYYY para que ParseDate() las agarre bien, pero en fin,que no es tan complicado.
luego se hace algo como
$./xnat_get_age.pl -x unidad
y el archivo de ouput es obviamente
$ head unidad_age_data.csv Subject,Age 20151338,87.7 20211523,70.3 20211401,63.1 20211281,79.4 20210716,74.2 20081210,82.9 20211524,77.1 20211269,65 20211482,75
Haciendo Update de la DB
Cuando he subido los sujetos nuevos, no me interesa subir todos los datos. Solo de los nuevos. Xnat permite bajarse un CSV con los datos fundamentales de los sujetos. Ejemplo,
[osotolongo@brick03 mri_face]$ head osotolongo_9_9_2022_14_20_45.csv Subject,M/F,YOB,MR Sessions,Inserted 20040526,F,1943,1,2022-08-15 14:50:34.733 20050456,F,1940,1,2022-03-21 10:07:58.79 20050604,U,,1,2022-09-09 11:03:42.296 20071018,F,1937,1,2022-06-01 11:26:55.319 20081210,F,1939,1,2021-12-18 18:36:35.746 20090461,M,1944,1,2022-02-02 10:18:49.364 20090567,F,1951,1,2022-08-16 11:46:09.795 20100147,F,1943,1,2022-08-16 10:24:22.267 20100678,M,1943,1,2022-02-02 10:53:02.929
Lo primero es mirar aqui quienes no tienen Genero o Fecha de nacimiento,
[osotolongo@brick03 mri_face]$ awk -F"," '{if ($2=="U") print $1 }' osotolongo_9_9_2022_14_20_45.csv | sort -n > newones.list [osotolongo@brick03 mri_face]$ cat newones.list 20050604 20181621 20191940 20220120 20220144 20220205 20221002 20221079 20221124 2021020051 2021020062 2021020098
Por supuesto que aqui habra tambien los errores previos ( ver las ultimas lineas) pero no importa porque estos no se procesaran. Hago,
[osotolongo@brick03 mri_face]$ ./make_csv.pl -i newones.list
y el archivo resultante,
[osotolongo@brick03 mri_face]$ cat unidad_dob_gender.csv ID,label,dob,gender XNAT_S00611,20050604,1946-11-18,female XNAT_S00612,20220144,1948-04-10,female XNAT_S00613,20220120,1950-12-31,female XNAT_S00614,20220205,1938-10-06,female XNAT_S00615,20221002,1955-02-19,female XNAT_S00616,20181621,1941-10-23,female XNAT_S00617,20221079,1949-07-25,female XNAT_S00618,20191940,1943-11-09,female XNAT_S00619,20221124,1969-03-17,male
se utiliza para hacer un update subiendo el spreadsheet directamente a XNAT.
ahora, quiero ver los reports que faltan, asi que hago,
[osotolongo@brick03 mri_face]$ xnat_get_rvr.pl -x mriface [osotolongo@brick03 mri_face]$ head mriface_rvr_data.csv Subject_ID,Date,Fazekas,GCA_D,GCA_I,Kipps_A_D,Kipps_A_I,Kipps_F_D,Kipps_F_I,Kipps_P_D,Kipps_P_I,Koedam_D,Koedam_I,Scheltens_D,Scheltens_I 20151338,2021-12-04,1,2,2,1,1,1,1,1,1,2,2,2,2 20211523,2021-12-05,2,1,1,NA,NA,NA,NA,NA,NA,1,1,1,2 2021020098,2021-12-04,1,2,2,2,2,2,2,1,1,1,2,2,2 20211401,2021-12-04,1,1,1,1,1,1,1,2,2,1,1,0,1 20211281,2021-12-01,1,3,3,NA,NA,NA,NA,NA,NA,2,3,3,3 20210716,2021-12-16,1,1,1,1,1,1,1,1,1,1,1,1,1 20081210,2021-12-02,1,1,1,NA,NA,NA,NA,NA,NA,1,1,0,0 20211524,2021-12-02,2,2,2,1,1,3,3,1,1,2,2,1,1 20211482,2021-12-02,2,2,2,3,3,2,2,2,2,2,2,4,4 [osotolongo@brick03 mri_face]$ awk -F"," '{print $1}' mriface_rvr_data.csv > reports_done.list [osotolongo@brick03 mri_face]$ awk -F"," '{print $1}' osotolongo_9_9_2022_14_20_45.csv > all.list [osotolongo@brick03 mri_face]$ grep -v "`cat reports_done.list`" all.list > noreports.list [osotolongo@brick03 mri_face]$ while read -r line; do xpr=$(xnatapic list_experiments --project_id unidad --subject_id ${line} --modality MRI --label); echo "${line},${xpr}"; done < noreports.list | awk -F"," '{print $1","$3}' > sbj_ids.csv [osotolongo@brick03 mri_face]$ head sbj_ids.csv 20050604,D22362317 20181621,D22407522 20191940,D22402332 20211269,D18290542 20220053,D22038623 20220120,D22363608 20220144,D22402314 20220205,D99365341 20220460,D99297208 20220581,D22362247
y ahora regresamos a bajar los PDFs y procesarlos
Evaluando neurodegeneración
Ahora, como determinar la N.
Primero obtener los datos,
[osotolongo@brick03 mri_face]$ xnat_pullfs.pl -s aseg -p mriface -o base_aseg.csv [osotolongo@brick03 mri_face]$ xnat_pullfs.pl -s aparc -p mriface -o base_aparc.csv [osotolongo@brick03 mri_face]$ awk -F',' '{print $1"_"$2","$0}' base_aseg.csv > tmp_aseg.csv [osotolongo@brick03 mri_face]$ awk -F',' '{print $1"_"$2","$0}' base_aparc.csv > tmp_aparc.csv [osotolongo@brick03 mri_face]$ join -t, tmp_aseg.csv tmp_aparc.csv | awk -F',' '{$1=$50=$51=""; print $0}' | sed 's/^ //;s/ /,/g;s/,,,/,/g' > base_full.csv [osotolongo@brick03 mri_face]$ (head -n 1 base_full.csv && tail -n +2 base_full.csv | sort -t,) > base_full_sorted.csv [osotolongo@brick03 mri_face]$ xnat_get_age.pl -x unidad [osotolongo@brick03 mri_face]$ sort -t, -n unidad_age_data.csv > unidad_age_data_sorted.csv [osotolongo@brick03 mri_face]$ awk -F',' '{print $1"_"$2","$0}' unidad_age_data_sorted.csv > tmp_age.csv [osotolongo@brick03 mri_face]$ awk -F',' '{print $1"_"$2","$0}' base_full_sorted.csv > tmp_base.csv [osotolongo@brick03 mri_face]$ join -t, tmp_age.csv tmp_base.csv | awk -F',' '{$1=$5=$6=""; print $0}' | sed 's/^ //;s/ /,/g;s/,,,/,/g'> input_data.csv
y ahora me bajo el script para calcular la N y,
[osotolongo@brick03 mri_face]$ Rscript nplus.r
Y tenemos como resultado la estimacion de presencia de neurodegeneracion asi como la probailidad de pertenecer a cada grupo.
[osotolongo@brick03 mri_face]$ head classifier_output.csv Subject_ID,ND,posterior.0,posterior.1 20050456,1,1.535472e-03,9.984645e-01 20081210,0,7.683998e-01,2.316002e-01 20090461,1,2.417535e-03,9.975825e-01 20100678,1,1.268098e-04,9.998732e-01 20140947,1,6.505165e-02,9.349483e-01 20150926,1,3.967107e-07,9.999996e-01 20151338,1,2.415657e-04,9.997584e-01 20160418,1,2.258146e-07,9.999998e-01 20170735,1,4.166497e-03,9.958335e-01
y la densidad de probabilidades de presentar neurodegeneracion perteneciendo a este grupo sería algo como,
Comparando neurodegeneración con LCR
Aqui hay dos puntos a tener en cuenta,
1.- El algoritmo utilizado es correcto solamente para los pacientes preclínicos. Por construcción se supone que todos los sujetos diagnosticados con demencia tienen una probabilidad cierta (=1) de neurodegeneración.
2.-
awk -F',' '{if ($3!='3') print}' dxs_20230629.csv > dxs_20230629_notdemented.csv awk -F',' '{print $2}' dxs_20230629_notdemented.csv > selected.csv ./get_lcr.pl -i selected.csv > nondemented_lcr.csv awk -F',' '{print $2","$4","$5","$6}' nondemented_lcr.csv | sed 's/label/Subject_ID/' > lcr_data.csv (head -n 1 lcr_data.csv && tail -n +2 lcr_data.csv | sort -t,) > lcr_data_sorted.csv
En este punto solo hay que unir los valores de LCR con los de Nplus.
join -t, classifier_output.csv lcr_data_sorted.csv > mriface_compare_data.csv