2014年4月20日

黏蚊板再出動

今年地下室的蚊子,感覺比去年還多啊,於是我又出動了抓蚊子的絕妙工具-黏紋板。其實我本來不想弄這個的,不過蚊子真的多到一種很恐怖的程度。

板子擺上幾天,就變成這樣了。



過了一週再收回,我估算大約抓了兩千隻,後來我把背面也噴了黏膠,結果又是兩千多隻。兩週的數量,我推算約有五千隻,你可以想像這有多嚇人吧。不過只是抓成蟲,那是治標不治本。源頭其實是來自地下室很難處理的積水,我想我改天來放劍水蚤試試看吧。(詳情要
搜尋「以劍水蚤防治登革熱病媒蚊幼蟲先驅計畫」」



延伸閱讀
驅蚊劑-科技大觀園
http://goo.gl/mLHBtB
蚊子剋星-科技大觀園
http://goo.gl/wMTUyY

imagej將時間資料視覺化

昨天看Make雜誌時,看到第27期有篇Visualizing With ImageJ,講的是如何用imagej將資訊視覺化的處理方法。這篇在imagej的官網上也有電子檔。

為了讓自己更熟悉這些處理方式,所以我就到youtube 找了一些影片來學習怎麼處理。

材料是這個影片(草履蟲游來游去),要把裡頭蟲體隨時間泳動的空間資訊轉化為用一張圖來呈現。


這種方法之前用startrail這種星軌軟體作過,這回則是用imagej來實踐!

影片轉圖片
imagej內建可以匯入avi,不過這些youtube上下載的影片格式都是mp4,所以我得先用別的軟體轉檔。這個任務當然交給ffmpeg,如果是windows下,可以用阿特拉斯的Extra.Movie to Gif來完成。

文字列的轉檔方式如下
ffmpeg -i source.mp4 -ss 00:00:00 -t 00:50:00 -r 3 output%03d.jpg

-ss是起始時間,-t是經過時間,若是要全部影片都轉檔,這兩個值不用打也沒關係
-r 指的是fps,預設值是25,也就是說若有10秒的影片,則是可以轉出10x25張的圖片。-r 後面的數字可以使用分數,例如1/2,這就表示每兩秒才轉出一張圖片,所以10秒的影片會轉出5張圖片。


匯入Imagej
匯出圖片之後,開啟imagej,用File/import/Image Sequence...,選取這系列圖片的第一張,就可以直接把其他圖片都匯入成一個stack。

若是匯入的影片太大,可以用 Image/Crop 直接裁切整個Stack的圖片。

然後用 Image/Stacks/Z Project... ,設定Projection Type為 Min Intensity,這樣就可以產出草履蟲的移動軌跡了。




如果Stack裡頭的圖片太多,可以用Fiji 裡的Image/Stacks/Reslice Z 重新切過把stack裡頭的圖片弄掉。


不同的數量,做出來的圖片就不同喔。左下角是104張圖片做的,右下角則是52張圖片做的。


Montage
資訊視覺化的另外一種方式,則是做成組圖,利用以下指令 Image/Stacks/Make Montage...
然後設定欄列數量和邊框,這樣就可以了。



Kymograph
另外一種資訊視覺化的方式,我覺得實在很有趣。在原作者的文章中,他想知道他家的鳥孵蛋和覓食的時間分佈狀況,所以就拍了一整天的影片,然後把影片匯入imagej之後,同樣轉成一個Stacks,再把蛋區的部份crop了一長條做成Montage,這樣就可以很清楚的知道,那隻親鳥孵蛋和覓食的時間分佈了。

我仿照他的例子,來作一個草履蟲的空間與時間的分佈圖,下圖是在原本的Stacks中切了一長條的位置,然後再把Stacks變成Montage。這樣就可以知道那個區域在什麼時候會有草履蟲來了。



同樣的作法,我也拿來某個日出到日落的縮時攝影影片匯入成Stack之後,然後在空中切一小條之後,做成一張組圖,這樣就可以很清楚的知道天色的變化了。



這種將帶有時間資訊的影像扁平化的方式,在日本的定點觀測計劃中,就有看到不少例子,無論是比較全年的日照時間,或是稻田顏色變化等,長期的資料累積下來,看到的樣貌都是非常迷人的。


除了本篇講的幾種視覺化方式,原作者還提出了其他幾種資訊

  • IMAGE CALCULATOR:TWO IMAGES COMBINED
  • Z-PROJECT A STACK:LIGHTNING FLASH
  • COLOR-CODING TIME: STAR PATHS ACROSS THE NIGHT SKY
  • IMAGE PROCESSING WITH A SPREADSHEET

2014年4月19日

水結冰的微觀縮時影片

晚上突發奇想,想來拍拍微觀水結冰的影片,查了一下科學Maker的社團,剛好前人也拍過,方法都相同,都是把手機顯微鏡整組放到冰箱冷凍庫裡。

為了讓水結冰快點,所以水放的不多。拍攝範圍鎖定邊緣部份,也是為了能快點拍完。

總計拍攝時間是10分鐘,後來再把影片加快10倍,就成了這樣。

拍攝微觀電擊影片

上回有說Scimage有個臉書社團是科學Maker,他每週弄了一個主題,讓大家根據主題拍照。昨天週五他提了一個主題是物理現象,然後社團中一位張醫生說想拍閃電,結果我就很不要臉的拿走人家的創意,拍了閃電的微觀影片了。




拍攝方式是把壓電素子的電極接出來放在載物台上



編輯影片的時候,看到閃電出現的影格比聲音早了一格,是個光速比音速快的例子




說真的要不是張醫生的創意,我這輩子應該不會想到要拿顯微鏡拍閃電,以前最多只有拍電手指的樣子啊 為什麼電到會那麼痛

2014年4月16日

用CT SCAN做自己的3D模型

內弟韓醫生跟我說他們醫院最近進了新的斷層掃描機,正式營運上線要先做一些測試,需要一些自願者進去被掃描一下,聽到這個,當然高舉雙手喊「選我選我」。

喬了幾個時間,終於找到我有空,機器也有空的時間。然後去掃描了幾個部位,分別是腦、心和髖部。

自己想去做斷層掃描,其實不只是為了醫療,心裡頭更想要做的是看能不能做成3D模型,印一個自己的器官。不過該怎麼處理醫學影像呢?我沒這方面的經驗,所以開始在網路上尋找能處理的軟體。

結果意外的發現,原來imagej就可以開啟那些DICOM檔,然後直接做成3D影像了。不過要再安裝3D Viewer這個plugin。把那些掃描出來的DICOM檔,用File/Import/Image sequence..的方式把那些檔案匯入imagej變成一個stack,然後再開啟3D Viewer,就可以變成3D影像了。

例如心臟和下面的腦都是這樣開的。





也許你有注意到,開啟的軟體並不是單純的叫做Imagej,而是叫做「(Fiji Is Just)  Imagej」的軟體,誠如軟體的名字所言,Fiji其實就是imagej,它是把許多生命科學研究相關的plugin預裝好的imagej。裡頭眾多的Plugin,我還沒細看過,但粗略看過的結果,發現一些plugin,可能可以解決過去我的一些分析問題。


imagej的3D Viewer,可以設定看Volume還是Surface,若要匯出成STL檔,則是要選擇檢視surface才可以。不過我發現光是靠Imagej處理表面的多邊形細節來輸出,實在不夠力,所以我繼續尋找可以使用的軟體。


Devide
後來在Youtube上找到這段影片《Extracting STL surface from CT data with DeVIDE》,完全符合我的需求,我只要跟著做就可以了。

使用的軟體有二,一個是Devide,另一個是Meshlab。在Devide裡頭使用的模組包括以下這些:

  • slice3dVWR
  • DICOMRreader
  • doubleThreshold
  • seedConnect
  • closing
  • contour
  • wsMeshSmooth
  • Quickinfo

Meshlab在網路有些教學,例如這篇就教了怎麼減少表面多邊形,不過像我在Devide就已經用wsMeshSmooth處理過了,所以也不一定要進去Meshlab來處理。

做出來的STL檔案,看來還不錯,不過還沒辦法去做成3D模型,因為我還沒搞懂怎麼把內部的細節填滿,還有頂和底的洞到底要怎麼封閉。那些問題搞定之後,才可以送到切片軟體去轉Gcode。





前面用的Devide,門檻有點高,我做了幾次都還是得邊看影片才會邊操作,所以我又在 Youtube找相關的操作影片,又找到一個軟體,名字叫做Invesalius。Invesalius的界面簡單,功能也很強,可以直接用預設值做出骨骼、脂肪、皮膚或肌肉等遮罩。不用多作設定,就可以將原先的橫切圖,直接產生出另外兩個方向的切面。

有中文界面,產出的3D圖,甚至可以把皮膚、肌肉和骨骼設定不同的透明度,然後同時呈現。有興趣看看這個用豬頭做3D模型的影片,就知道它的長處了。

你可能對這有興趣

Related Posts Plugin for WordPress, Blogger...