เราใช้คุ๊กกี้บนเว็บไซต์ของเรา กรุณาอ่านและยอมรับ นโยบายความเป็นส่วนตัว เพื่อใช้บริการเว็บไซต์ ไม่ยอมรับ
From Cern(เจิ้น) to CernYanisa Sunthornyotin
Day4: ยูนิคอร์นในวันฝนตก
  • 6 มิถุนายน

    วันนี้ตื่นขึ้นมา รู้สึกดีขึ้นกว่าเมื่อวานค่ะ
    อย่างน้อยก็ไม่ปวดหัวเท่า แต่ยังฟุดฟิดอยู่บ้าง

    ข้างนอก...ฝนตกอีกแล้ว


    ตอน6โมงเช้าจึงเมลไปบอกsupervisorว่าเดี๋ยวจะลองทำงานแบบremoteดู 
    เลยไปนั่งอยู่ในห้องสมุดค่ะ
    เงียบเชียบดีมาก แล้วมันจะมีมุมนึงที่เป็นโต๊ะเดี่ยว หันเข้าหาวิวสวน ต้นไม้เขียวๆ ดูแล้วสดชื้นสบายตามาก แต่ก็อยู่ได้ไม่เกินครึ่งวันค่ะ เกิดคำถามเรื่องProjectขึ้นมาจนได้

    จึงต้องเดินไปเข้าOfficeในที่สุด


    แต่ก่อนไปก็แวะทานอาหารกลางวันที่โรงอาหารซักนิด จ่ายไปเบาๆอีก8.5CHF ข้างนอกฝนมันตกก ไม่อยากเดินตากฝนไปทำกับข้าวที่หออ


    ได้นัดเจอกับฟิล์ม เพื่อนนักฟิสิกส์ที่ทำงานอยู่ใกล้ๆนี้ที่R1(ร้านอาหาร1)ด้วย รู้สึกว่าเมื่อวานช่างโดดเดี่ยวไม่ค่อยได้คุย พอมาเจอเพื่อนก็รู้สึกใจชื้นขึ้นมาหน่อยเหมือนได้เติมพลัง

    พอฝนหยุด ก็เดินไปเข้าOfficeค่ะ อากาศหลังฝนตกนี่มันช่างหนาวเหน็บเสียเหลือเกิน

    ในส่วนของความคืบหน้าprojectวันนี้...
    ต้องย้ายกลับไปใช้ตัวSparkcontextแบบเดิมค่ะ5555 เพราะว่าตัวSpark structured streamingมันไม่สามารถprocess dataแบบrealtimeได้ มีแต่ตัวStreaming contextที่จะสามารถทำพวกMapreduceกับข้อมูลแบบrealtimeและกำหนดwindow Lengthได้ กรณีที่อยากควบคุมtimeframeของdataที่streamเข้ามา

    แล้วประเด็นของตัวนี้นี่นะ...ก็คงเป็นตัวspark contextนี่แหละ พอ.stop()แล้วต้องไปgetมาใหม่ \ช่วงแรกที่ไม่รู้นี่restart sessionกันเป็นว่าเล่นเลย น่าจะเป็นเพราะไปdevบนSWANด้วย อย่างไรก็ตาม กว่าจะgetมาได้นี่ก็ไม่ใช่เวลาสั้นๆเลย555 พอนึกว่าจะต้องทนdevกับการdebugที่ช้าขนาดนี้แล้วมันช่างท้อแท้~~~~ 

    หลังจากgetค่ามาได้group subject emailเข้าด้วยกันมาได้ ทีนี้...Blankเลย 5555 นี่แหละค่ะสาเหตุที่ต้องไปหาSupervisor คือทำไปทำมาแล้วมันก็เริ่มเป๋ๆ ต้องไปย้ำdirectionกันอีกที แล้วยังไงนะ ออ ใช่ ต้องส่งเมล!

    Supervisorเลยให้งานStepถัดไปมา หนึ่งคือต้องStreamไปหาKafka(topic:snow_ticket) ที่จะเป็นตัวที่ส่งเมลให้ ซึ่งตัวนี้ก็ยังมีจุดบอดอยู่คือมันจะไม่สามารถget feedbackจากuserได้ กับอีกอย่างคือเก็บDataframeที่StreamลงในHDFSเพื่อที่จะสามารถเอามาทำTrainได้ ในสเต็ปถัดไป ซึ่งdataframeตัวนี้ควรจะAppend Updateได้และเก็บTimestampไว้ด้วย

    อ้อ แล้วก็อีกอย่างคือ การที่เราจะapply functionในDStream ควรจะต้องประกาศไว้บนSparkแบบUDF(User Define Function)กับSparkSessionก่อน(ที่จริงเป็นหนึ่งในModuleของSpark SQL) ไม่งั้นมันจะlackมากกกกกกกกกกก 

    อีกประเด็นที่ยังตันๆอยู่คือตอนDebugนี่แหละ คือเมลมันไม่ได้เข้ามาทุกวัน ข้อมูลที่มีมันก็เก่าแล้ว แล้วจะเทสกันยังไง? ตอนนี้ก็ยังคิดไม่ตก ก็ได้แต่หวังว่ามันจะclearขึ้นในวันถัดๆไป

    ตอนเย็นก็เลยไปคลายเครียดเดินเล่นดูภายในเมืองกับจารพัดและพวกเด็กๆค่ะ ซื้อพิซซ่ามากินเป็นข้าวเย็น เดินดูนีี่นั้นก่อนจะพบว่า...บางที หลายอย่างซื้อที่ไทยยังถูกกว่า หูฟัง เสื้อผ้า ไรพวกนี้ 

    ระหว่างทางเดินผ่านร้านชานมไข่มุกไต้หวัน จู่ๆขบวนก็หยุดค่ะ

    ออ..จารพัดอยากกิน

    ขายแก้วละ180บาท!!!!อมก
    ไทยแลนด์ อิส เดอะ เฮฟเว่น ออฟ บับเบิ้ลที
    ในร้านก็เหลือบไปเห็นสิ่งนี้ค่ะ

    ป๊อกกี้ชาเขียว กล่องละ90บาท!!! รู้งี้ซื้อมาขายต่อ...

    แล้วก็ๆๆๆๆ เจอChocolatกัญชาด้วยค่ะ เผื่อทุกคนยังไม่รู้ ขายกัญชาที่นี่ถูกกฏหมายนะคะะ



    แล้วเป็นงี้ทั้งชั้นวาง!!!เพียงแค่คนละยี่ห้อ

    ถึงกับฟินเลยทีเดียว\ที่พูดนี่ไม่ใช่เคยสูดนะ5555อย่าพึ่งมองเราผิด

    ยัง!ยังไม่หมดเท่านี้ ยืนๆอยู่ก็มีคนมาแจกไอติมค่ะ เลยจิ๊กรสช็อคโกแลตใส่โคนมา อร่อยมากกกกก ช็อคโกแลตเข้มข้นมากกกกก คือมันดียยยยยย

    เรื่องนี้สอนให้รู้ว่าบางทีการใช้จ่ายก็ทำให้คลายเครียดได้เหมือนกัน ควรหาเวลาออกไปพบป่ะผู้คนและพักผ่อนบ้างหากมีโอกาส มันจะทำให้ชีวิตคุณดีขึ้น!

    ปล.นี่ยังนึกภาพตอนไปเรียนเมืองนอกคนเดียวไม่ออกเลย ต้องเหงาแหงๆ

เข้าสู่ระบบเพื่อแสดงความคิดเห็น

Log in