2019年1月29日

用micro bit測反應時間學習探究活動的進行

今年的專題研究課裡安排了幾週以micro bit為主的探究活動,過程是讓學生自己拖拉積木撰寫程式,完成自己的探究活動所需的實驗器材,然後拿自己做實驗對象之後,再利用試算表進行分析,繪圖分析結果,並撰寫討論。

過去這樣的課程我是用arduino來進行,不過以前要做到這樣的功能的時候,除了arduino板子外,還另外要準備輸入裝置如按鈕、顯示裝置如LCD,如果不用LCD,就還要教serial print的功能,用筆電顯示。此外,如果不是在電腦教室做這課程,就要另外準備每個學生一台筆電,執行起來真的是很麻煩。

但是今年改用了micro bit,一切簡單多了,光是不用準備筆電安裝寫程式的IDE就省事太多了,只要用iPad加上線上的make code網站,就可以撰寫程式,而且燒錄程式也不需線,只要用藍牙連結micro bit,即可遠端燒錄程式,太方便了。更何況microbit 上就有按鈕和Led顯示的功能,而且還內建不少感測器,這些功能都讓課程可以更聚焦在我想要的部份。

課程的進行方式,我先將課程預先錄影後,學生在課堂上個別看影片學習,而我則是隨時在旁個別解答。對於這種學生程度個別差異非常大的課程,這是最適合他們的方式。不僅可以按照自己進度學習,同時也能夠即時得到老師的協助。

影片連結如下。第一節課是讓學生先熟悉micro bit,讓他們先用micro bit 製作動畫,這是剛好搭配神經系統學到視覺暫留。學生自製,讓他們在使用iPad自己把自己的成果錄製成影片,把影片上傳到公用的頻道上,再填寫自己的作品連結到表單上
成果如下




第二堂開始就開始學習製作測量儀器,測量自己的反應時間,並且學習撰寫報告的方式。第三、四堂之後,則是針對不同的問題來修改程式,並再度測量,寫報告。

連結標題時間
https://www.youtube.com/watch?v=E8GSfI8NDSo&feature=youtu.be用ipad和micro:bit做動畫0:10:25
https://www.youtube.com/watch?v=bg6xLh4Bllo&feature=youtu.be儀器製作:micro bit測量反應時間0:16:10
https://www.youtube.com/watch?v=1x1p7cII9tU&feature=youtu.be報告撰寫說明:多次練習是否影響反應時間0:07:54
https://www.youtube.com/watch?v=XFqP98nLBDs&feature=youtu.be數據處理,畫出標準差的誤差線0:11:52
https://www.youtube.com/watch?v=pdXQvOET4Z0&feature=youtu.be2 不同強度的視覺刺激0:12:28
https://www.youtube.com/watch?v=sfVXr6kLxuE&feature=youtu.be3 不同頻率的聽覺刺激0:05:29
https://www.youtube.com/watch?v=Q4Nx1ct7j0c&feature=youtu.be4 不同種類的刺激影響反應時間0:03:40



以下是學習的狀況,課程學習時就是讓學生個別使用iPad,一邊看我錄製的影片,一邊使用線上網站來編寫程式




對於小學學過scratch的學生來說,以拖拉積木來撰寫程式,確實簡化了不少程序







而在第二堂後的撰寫反應時間報告上,我讓學生將一張A4白紙對折再對折,折成四格,每格填寫不同的資訊。(可以看一下這部影片說明

左上角是填寫問題和假設  右上角是實驗結果  左下角是結果分析  右下角是討論、結論

分析的方式,是早在幾堂課前就有教過他們用的敘述統計,將數據輸入Google試算表,然後再以函數計算出來的















第三、四堂課之後,開始有不同的操縱變因加入,例如使用不同的頻率作為聽覺刺激,是否會影響反應時間。所以學生在分析資料的時候,就要呈現出這些變因造成的影響。利用長條圖加上誤差線來分析結果



這樣單份報告都是該次專研結束前,就要交出的,我也會即時給予意見,然後遇到有需要修改的,也不要塗掉,就直接拿便條紙把那個部份蓋住再寫一次就好。這樣的好處是可以讓歷次修改的軌跡都留下來,看到成長的過程。

每堂課強化的重點都不相同
第一堂課是學習micro bit的使用
第二堂課著重在數據的整理與分析(右上格和左下格)
第三堂課是長條圖的分析處理(以算術平均數繪製長條圖,並以標準差畫出誤差線)
第四堂課是資料的討論以及研究方法的撰寫

在前幾堂課,其實研究方法只是讓學生把程式的網址寫上去而已,而不是真的寫出研究方法,所以在第四堂課就特別關注他們怎麼寫。另外在資料的討論,著重在三階段的論說,首先說明實驗結果是否支持假設,證據是什麼?並且解釋發生這樣的結果可能原因是什麼。很多學生在這部份一開始表現都不太好,畢竟平常不太有機會寫這樣的小短文,不過來回退件幾次後,就會越來越好了,但就是要花時間磨啊磨的。

2019年1月26日

做個布丁鼠的骨骼標本

寒假的前幾天,去年教的學生柔突然出現在教室外,語帶興奮地說「老師我的老鼠死了」。
欸...等等,這情緒錯了吧

喔,原來是去年我教他們的時候,有跟他們說家裡的寵物死掉了想做標本的話,可以來找我。然後這孩子謹記在心(是說記這幹嘛?)

跟柔約了寒假一天來學校做標本,早上帶來的布丁鼠其實還是凍結狀態的,所以得先泡個熱水退冰一下。還好老鼠小,沒幾分鐘就軟掉了。

先做初步解剖之後,脫下毛皮,然後這時候就要想想要怎麼製作標本,如果是要有全毛皮標本,那四肢的掌骨以下的就會留在毛皮裡頭,可是這樣骨骼標本就會沒手掌腳掌,看起來會怪怪的。所以這次就把手掌腳掌的骨骼都留著,不放在毛皮裡。至於毛皮就是在手掌腳掌處劃開,不留下這部份了。

毛皮脫下、內臟取出,接著就是先去掉一部分的肌肉。然後再放入KOH溶液一天,隔天早上十點再來做第二步的處理,繼續把一些小肉去掉。



而取下的毛皮,在前一天已經以食鹽、硼砂、明礬等做了處理,當然內部的皮下脂肪也要去掉,接著就是動針線來縫了。還好學生柔是女童軍,有考過縫紉的專科章,縫個老鼠皮對她來說是小事啊。



本來四肢會有四個洞(因為手掌腳掌都留在骨骼標本處),不過後來我建議她還是就把四肢洞縫起來吧。



至於骨骼標本,則是一貫地用牙籤、長竹籤固定在泡綿上,等幾天蔭乾就好了。不過這次忘記準備漂白水來泡一下,我猜四肢長骨內的紅骨髓可能會讓骨頭內部黑黑的,沒關係,就等之後再來處理吧。


處理毛皮標本的時候,想到如果可以準備個假眼,做成標本的時候應該會更好。不過暫時想不到用什麼來做,只有想到可以用3DP來設計做出一個半圓形,不過眼睛那麼小,做出來的可能會有點粗糙。

2019年1月23日

用Scratch做單字發音排序練習



https://scratch.mit.edu/projects/276930603/


看到一個網友提問說想要一個程式能夠做單字發音,又讓學生做排序練習的。

剛好新的scratch有這樣的功能,組合起來應該是有符合那位網友的需求,於是我就動手做了。

一般使用者如果要使用就按下綠色旗子,然後再按下畫面中出現的綠色按鈕就可以了,剩下的就自己摸索。
如果是老師想要放入自己的單字,就請在程式編輯的頁面,去按下綠旗子。在一開始出現的句子列表那邊按右鍵就可匯入自己的句子文字檔。

細部說明我就用影片來說明吧

用python做天空定點攝影的組圖縮時影片

前一篇用python做天空定點攝影的組圖,其實做好了我就在FB社群裡貼了,有個網友就說也可以用這種方式完成喔,他貼了這部影片連結給我。
https://youtu.be/PNln_me-XjI


看了之後感覺真的不錯,於是我就開始動手寫程式,看看能不能呈現出這種影片。結果呢?成功啊







程式我和前一篇文章一樣,一起放在github,要用就自取
https://github.com/ChihHsiangChien/-MontageSky

程式的說明如下,真心希望以後我還看得懂

用python做天空定點攝影的組圖

好久沒來寫Blog了,感覺都長了好多蜘蛛網呢。


前一陣子其實一直在寫程式畫圖,畫什麼圖呢?畫一個我多年前就想完成的作品。
2011年的時候看到日本的定點觀測計劃,覺得很有意思,居然可以把一整年的攝影機拍攝的圖片整合在一張圖上。後來我也小小做了一些嘗試,但其實都沒有延續下去做。

一直到2017年用樹莓派搭建定點攝影的拍攝主機motionEyeOS,我終於開始弄了定點攝影了。

不過拍是一回事,整理又是另一件事。我是把拍攝的圖片都上傳到雲端硬碟,現在的問題反倒是該怎麼把圖片下載回來?這可不是連到雲端硬碟按個右鍵下載就可以辦到的,因為啊,那樣下載時,都得先在雲端壓縮後再下載回來。可是啊,我下載的檔案可是相當巨大的呀。

有多大,來算算看吧!
當初設定每30秒拍攝一張,如此一天就有
2x60x24 = 2880張照片
一年就有 2880x365 =1051200張照片
而每張照片就當只有100 kB吧,一年的照片也要100GB之多啊,根本沒辦法壓縮下載呢。

從Google雲端硬碟下載照片
怎麼辦呢?一開始我只好去找了window筆電,用雲端硬碟的同步功能,看能不能下載那好幾百G的圖片。不過問題在於光是遠端準備下載就花了好幾天的時間,然後下載下來的時候,又發現筆電的硬碟根本不夠大,而且就算下載下來了,我還得再搬移檔案,把檔案放在我慣用的電腦用程式處理,這麼大也是搬不動啊。

於是我就想乾脆從頭設定一下,看看用雲端硬碟來同步時可不可以同步到自己的行動硬碟,結果找不到這樣的功能啊。唉啊啊

這可怎麼辦呢?只好找別的方式來下載了啊。還好還好,找到了一個用GO語言寫的命令列工具Skicka,在windows或是在linux上都能執行呢
https://github.com/google/skicka

寫得簡單,不過安裝有點煩,得先安裝GO語言,然後下載skicka,再取得Google硬碟的使用權限。弄好了之後,下載照片就很簡單了。

它不像Google硬碟的官方同步軟體那樣下載,如果是官方的,都是在雲端壓縮後再下載,但是Skicka是直接單個檔案接著傳輸,所以你可以隨時從命令列就看到下載的進度。一百多G的資料我可是下載了將近一週才下完啊,因為一開始的前幾天都忘記關掉休眠功能,以致下載幾分鐘它電腦就睡著了,每天都才下載一點點。

總之,經過千辛萬苦終於下載了定點拍攝的照片呢,但是啊真正的影像處理還沒開始哪!

用Python做組圖
不過啊,有了素材,後面的處理其實就不是太大問題了。

來說說程式的邏輯是什麼:
1.把每一年每分鐘的每一張照片的同一位置,複製一份下來(例如下圖的小紅框,紅框太小了,小到看起來就是一個紅方塊)
2.開一張空白圖片當作底圖,把上面複製下的天空小方塊,依照順序一個一個貼在地圖上
3.加上時間日期等資訊,結束




這就是花了一年多時間,終於完成的圖片呢,就這樣而已。好像沒有很珍貴的感覺耶,怎麼會這樣。

好啦,我還是要解釋一下這個圖在看什麼東西啦,整張圖都是不同日期時間的同一小塊天空組成的。由上而下是從凌晨0點到23點59分,由左至右是從2017年3月多開始,延續一整年的拍攝。

最明顯能看到的當然就是白色的部份如波浪一般波動,細看一下,也就是三月多大約六點多天亮。一直到六月多的夏至,那是最早天亮的時間,然後波浪就會開始往下走,冬天的時候,天空可是到六點多才會天亮呢。

除了看天亮天黑外,會看到有些週期性的白色色塊,像是七月多、八月多那些垂直的白條,或是每天三點多會有水平的白色線,那些時間是因為「沒有照片」,所以就會白白的。為什麼會沒有照片?可能是主機故障、網路重置...等各種原因了。

再來還可以看什麼呢?我覺得看天空的顏色也很有意思呢,看得出來什麼時候比較會有藍色天空呢?看起來似乎是秋天呢!



另外啊,我也特別來特寫一下天亮時間,照理說就時間序列來看,每天的天亮時間應該是有序的越來越早或是越來越晚。不過實際拍攝的影像卻看到細部的天亮時間呈現不規則的樣子,這當然不是說天真的隨便亮,其實天亮不亮跟當天的天氣、雲層還是有很大的關係,畢竟還是用一般網路攝影機拍攝的,所以天氣影響一部分的亮度呢





看了天空之後,再來看看河床上的植被,看看一年下來這植被的顏色變化是怎麼樣呢?





結果就是這樣呢!其實我覺得看植被,應該是不用時間資訊,只要日期資訊就好了。意思就是從早到晚的植物顏色,並沒有什麼意義,應該是看不同季節裡植被的顏色就好 ,所以下圖就橫著看就好,比方說都看中午十二點的顏色。

也蠻有趣的喔,在夏季七八月的時候,植被是比較綠的,而到了秋冬的時候,植被就變得黃褐色了。





最後就是來說明一下程式是怎麼寫的,這其實是為了自己。因為我覺得過一陣子我再看這些程式碼,可能我自己就會一臉茫然了。



程式的部份,我就放Github