#15 Diskusi Semantik App bersama Akhmad Fathonih – transkrip

Posted: September 28th, 2009 | 1,804 Comments »

ingin kontribusi membantu teman macet? ketik bagian podcast yang kamu suka di post ini ala WIKI dengan login di facebook connect disamping kanan dan klik edit this. Dengan membantu teman macet, kamu ikut berpartisipasi dalam membuat konten ini lebih mudah diakses untuk orang-orang yang tidak bisa mengkonsumsi audio

RW: Saya Ronald Widha, kali ini saya ditemani oleh regular Ariya Hidayat dan Akhmad Fathonih dari navinot. Ton, welcome to the show.

AF: Halo.

RW: Apa kabar?

AF: Oke, terima kasih

RW: Mau cerita sedikit tentang diri lo, mungkin sekalian memperkenalan navinot.com

AF: Kenalan yah, nama saya Toni. Saya nulis di navinot.com. Navinot ini blog tentang IT dan marketing, seperti itu.

RW: Dan twist nya disitu yah, IT nya bukan cuman tentang technology tapi lebih concern nya ke marketing. Dan mulainya kapan tuh Ton?

AF: Navinot ini mulainya dari september 2008, jadi sudah hampir 1 tahun jalan lah. Ada 2 orang yah di navinot, satu saya, satu nya lagi Ivan. Dulunya dia di San Diego tapi skarang sudah balik ke Indonesia. Di Surabaya sekarang.

RW: Oh oke, aku pikir masih di Amerika.

AF: Oh sudah ga, sudah balik.

RW: Terus yang menarik dari navinot.com ini pembacanya yah. Pembacanya bener bener comment nya selalu panjang panjang, Ada rencana ga buat nge leverage itu buat di jadiin, di focusin gitu, karena setiap kali ada satu post, comment pembacanya ga kalah panjang sama post nya.

AF: Iyah si, kita beruntung pembacanya lumayan kritis dan yang tersembunyi tersembunyi itu muncul semua. Akhirnya yah, sebetulnya yang punya bakat, bukan yang cuman nulis doang.

RW: Jadi komunitas.

AF: Iyah

RW: Kita hari ini jadi mau ngomongin soal semantic application yah, jadi ga terbatas cuman semantic web tapi juga semantic desktop dan sebagainya. Mungkin ada yang mau mulai, membahas kira kira semantic application ini menurut definisi masing masing kaya apa karena ini salah satu yang belon terdefinisi dengan baik kan, semua orang masih meraba meraba pengen tau semantic itu kaya apa dan di anggap salah satu fenomena yang bakal cukup besar yah, jadi dulu wa web 2.0 ada colaborasi informasi, sekarang 3.0 semuanya berdasarkan semantic. Ada yang mau coba meng definisikan semantic itu kaya apa.

AH: Dari pakarnya tuh

AF: Oke, dalam definisi saya sih semantic web ini simple nya mesin processable. Intinya cuman ada disitu. Jadi nanti yah, kalau di compress di satu sentence siy saya menggunakan seperti itu, mesin bisa baca tapi mesin juga bisa mengerti. Mungkin sekarang mungkin masih belon bisa terolah dengan baik yah karena mungkin belon punya makna tertentu, cuman ada text dan angka dalam bayangan saya, saya akan sebut seperti itu. Gimana yang lain?

AH: Text dan angka, itu maksudnya text tuh ga bisa di process yah? Atau gimana?

AF: Mungkin kalau process kasarnya cuman bisa di cut. Kalau mesin kita kasih tau judul buku, nama orang, kecuali pake dictonary dan dibandingan seperti itu.

AH: Sebenernya markup sendiri sudah cenderung ke arah semantic kan, cuman masih primitif lah, kan maksudnya di plain text masih ada informasi disitu.

RW: Mungkin informasi yang ketinggalan disini kan, mungkin yang kamu mau sebutin juga kan. Bahwa sekarang markup nya masih berdasarkan structure sebuah informasi secara generic yah. Dan kita ga bisa ngebedain tentang jenis informasi satu dengan lain nya. Kita baru bisa bedain oh title, oh sub title, dan structure di dalam sebuah informasi ajah, tapi mungkin belon bisa nge describe informatsi ini dengan specific, ini nama orang, ini hubungan satu orang dan lainnya  dan aku rasa justru mungkin kembali ke trend yang lebih besar dengan adanya web 2.0, kita sudah bisa menghasilnya banyak informasinya banyak banget yah. dan tentunya search tuh jadi salah satu tool yang berguna karena itu menjadi jendela kita buat melihat internet. Karena dengan ga ada search, kita bakal terlalu di bombardir dengan informasi, iyah ga siy. Dan semantic ini salah satu effort buat nge categorasiin content itu juga, iyah ga buat ngebikin supaya accessible dan berguna buat kita semua. Terus kita coba bahas tentang bentuknya bakal kaya apa yah, atau ngebahas apa yang sudah ada. Dari 1 aplikasi yang bener bener, web application yang sangat bagus banget menurut aku. Menurut aku, dia sudah ngecross bukan cuman purely technology tapi cuman hampir ke sisi sociology nya antropology juga dan sampe nge cross ke barier seni juga, nama nya wefeelfine.org Mungkin dari beberapa kalian sudah tau yah websitenya kaya gimana. Jadi wefeelfine.org itu sebetulnya java base application dan dia nge representasi semua feeling orang di dunia ini sebagai visualisasi, ada titik, ada animasi dan sebagai nya gitu. Dan yang menariknya aplikasi ini berusaha nge crawl the web dan menjadi kata i feel, dan categoriin i feel fine, i feel angry, pokoknya semua macam perasaan di dunia, sampai yang cenderung dari website porno pun, i feel dirty itu masuk gitu. tapi yang menariknya disini adalah begitu kamu masuk satu titik gitu yah, dia bakal ngejelasin panjang kalimatnya, i feel apa apa apa. Dan kalau ada fotonya pun dia nge grab foto nya, dan akhirnya website ini jadi jendela perasaan di dunia pada saat ini. Yang lebih gila lagi, ada filter system nya, ibaratanya kaya business analytic gitu. Kamu bisa ngeliat aku pengen cari perempuan di negara ini, di weather seperti ini, di bulan ini, dan sebagainya. Jadi kita bisa nge drill down ngeliat feeling orang di dunia. Dan aku rasa ada sifat semantic nya biarpun cukup single yah, cuman ngebaca kata dan nge katagoriin. Tapi nge katagoriin nya ini kan harus yang fine, jadi happy, dan ada colour coding dan sebagainya. Ini aku rasa ini kayanya aplikasi ini sudah dari 2-3 tahun yang lalu dan mulai nempel nempel semantic juga. Twitter punya aplikasi yang serupa namanya twistory,com, lebih simple dari wefeelfine.orf tapi aku rasa sudah nempel nempel semantic juga. Kalian mungkin ada sample lain yang mungkin mau dibagi?

AH: Untuk sample seperti itu, dia mungkin cenderung meng extract informasi dari text yang sudah ada kan, Ada ga yang misalnya sebenernya content nya sudah di siapkan, jadi misalnya ada inisiatif yang namanya nepomuk targetnya semantic desktop, concept nya disana kalau kita punya informasi, bisa nge set meta data, dan bisa di analysis atau diambil lagi oleh user nya. Misalnya contohnya kita bisa nge set meta data foto ini kita dimana, di foto ini ada siapa ajah dan sebagainya. Jadi cenderung satu yang exhibisit di set oleh user. kadang kan katakanlah foto dari digital camera sudah ada as if yang exhibit yang sudah bisa di extract kan. Tapi kita bisa nambahkan, ga menyebutkan siapa ajah dalam foto ini, itu kan ga tau

RW: Ini yang mungkin kita bahas offline beberapa minggu lalu juga yah Ton yah, ada 2 approach buat membuat web atau informasi, dunia informasi semantic yaitu top down dan button up. Dan mungkin dari top down kita mungkin punya wefeelfind, twistory, atau contoh contoh yang bakal kamu sebut barusan. Dan yang Ariya yang barusan sebutin ini sebgai button up, kita sebagai penghasilnya berusaha ngasi informasi yang sudah lengkap dulu.

AF: Masih dalam bentuk semantic

RW: Iyah, dan aku pengen ngambil contoh satu yang bagus banget dalam nepomuk ini, kembali ke percakapan kita offline sama Tony, aku ngerasa bahwa sekarang di desktop kita, kita tuh kalau misalnya ada file atau apa, kita cendurung mengassocikasikan file tersebuh dengan sebuah aplikasi paling ga di windows gitu yah, mungkin di linux sedikit berbeda. Misalnya aku punya file .pdf, aku associate dengan adobe reader, jadi kalau aku double click, buka nya adobe reader. Itu sebenernya asosiasinya kan cukup simple kan, cuman maping ajah bahwa file nya pdf jadi adobe reader. Sementar sementara kalau ini ada kekurangan semantic pdf dengan document akhirnya semua hal, semua aplikasi yang menerima document, bisa berinteraksi dengan file itu tanpa maping lagi, tanpa asosiasi lagi, mungkin word bisa menawarkan edit pdf, pdf bisa menbacanya, ada converter apa bisa membaca pdf dan meng convert jadi audio. Semua ini jadi context sensitive kali yah, itu impiannya nepomuk kali yah, bener ga?

AH: Betul betul, jadi cuman agak kadang kadang itu tadi dilemanya antara meta data sama yang kita set secara manual dan yang bisa di ekstract dari apa yang kita kerjakan, contohnya kalau kita punya email, kita save, sebenernya bisa dibuat kan hubungan antara email tersebut dan file tersebut, jadi kan relasinya ga hilang. Kadang kadang kita terima attachment, kita save kita bingung kan, ini file pdf dari siapa ni, sementara kalau penambahan meta data itu bergantung dari desktopnya sendiri kan bisa lebih integrated kan, bukan sekedar pdf adalah adobe reader.

RW: Yang masalah disitu mungkin bakalan meta, structure meta datanya. Harus ada standard lagi tipe tipe lagi kaya w3 standard buat html dan sebagainya. Karena bayangin simple banget cuman simpennya di xml gitu, key property nya itu apa,misalnya nama itu name, tapi name itu name orang, nama file, apa gitu kan. Itu kira kira penjelasan, jawabannya bakal apa nih? Apa mungkin jangan jangan sudah ada kali format seperti ini.

AH: Untuk web bukannya sudah ada, apa standard ontology language seperti itu.

AF: Contoh contohnya ada si misalnya untuk publikasi, kita ada w core meta data.

AH: Itu betul kan terkait dengan resource data framework. Bedanya semuanya markup language kan kalau ga salah, jadi di category, untuk web bisa di tag. disitu ada extra attribute atau potongan text tersebut. Masalahnya siapa yang membuat informasi seperti ini, apakah yang membuat content tersebut apa di analysis oleh sebuah katakanlah google atau gimana.

RW: Itu yang memang selalu susah, iyah ga sih. Bayangin initiatif yang buat open social ini yah, kalau ga salah google, my space dan kawan kawan pengen bikin. Oh kalau kita bikin satu standard buat social media buat kalau nambah friends atau apa, ga sudah nambah berkali kali di website yang berbeda beda. Tapi akhirnya masalahnya adalah satu aplikasi dengan aplikasi yang lain punya fitur yang berbeda kan, sama kembali ke masalah semantic aplikasi nih. Satu aplikasi yang menyimpan meta data mungkin lebih lengkap dibandingan dengan aplikasi lain, atau bahkan lebih parah lagi dengan format yang berbeda, satu sebagai untuk value, satu sebagai untuk nemeric, satu sebagai string misalnya. Akhirnya ada format mismatch disitu kan, dan jawabannya mungkin susah kali yah harus ada initiatif dan converence dan standard dan sebagainya, apakah bakal begitu, apakah sudah begitu?

AH: Asalkan kasusnya bukan sama dengan html yah, dimana terjadi fragmentasi dan setiap browser itu punya feature sendiri dan semua orang blajar dari kesalahan itu. Jadi semua orang munuju html 5. jadi semuanya standard featuernya. yang untung disini adalah user. Mungkin sama kasusnya dengan standard atau control language mana yang dipake. Mungkin namanya knowledge base

AF: Yah tergantung implementasi siapa yang terfungsi yah

AH: Itu kan pendekatan antara seleksi yang kuat akan bertahan atau mulai dari awal design by community dengan resiko ga akan bakal terjadi,

RW: Terus kita mau nge bahas contoh berikutnya,

AF: Contoh berikut nya apa yah. Tadi kan ngomongan set data yang sudah ada, kalau yang susah ada kan namanya bbpedia.org

RW: Yah kamu ngirimin ke aku kemaren tapi aku kurang ngerti maksudnya apaan.

AF: Kalau disana kan sudah di definisikan yah, relasinya antara satu resource dengan resource yang lain, misalnya kota ini founded by siapa misalnya. Nah bbpedia ini mengambil datanya wikipedia kemudian dibentuk jadi lebih berstructure dan lebih bermakna. Seperti tadi itu suhu brapa, founder siapa, lokasi dimana dan sebagainya adalah setting relasinya itu, jadi ontology

AH: Ini otomatis yah?

AF: Aku kurang tau yah bentuk nya kaya gimana.

RW: Tau tau ada pasukan

AF: Manual kayanya

AH: Dan pasukannya bukan manusia lagi, simpanse semua.

AF: Hahaha, makanya cepet yah

AH: mengenai bentuk atau format yang standard di halaman wiki, lalu di extract, seperti tiap kota ada box nya kan gitu, lokasi nya ada dimana, bisa di cocokan dengan posisi gps kita yang sekarang

RW: Ngomongin soal parcing text yah, aku pengen ngambungin sama phenomena twitter yang udah ga hot lagi siy, sudah jadi main stream, skarang jadi functional ajah. Jadi aku pengen sambungan ke twitter, dimana twitter itu kan terbatas dengan 140 character dan kita kalau dari blog dan menghasilkan memproduksi informasi dan informasi yang kita hasilnya ini cenderung ada unsur noice nya, dimana noice nya ini berguna untuk human reader dimana keep mereka attracted baca posting kita, mungkin dengan lelucon atau dengan bahasa bahas yang indah, tapi mungkin jadi lebih sulit untuk automated pacer mengerti meaning nya kan, ini salah satu contoh yang klasic adalah judul sebuah artikel di koran. Jadi contoh klasic yang untuk natural language processing lumayan susah karena biasanya multiple meaning gitu, artinya ga cuman satu. Sedangkan di twitter kita frame set of mind nya berubah, kita cuman punya 140 character, jadi mau ga mau harus di bikin se direct mungkin, iyah ga sih. Karena kita pengen ngomong a, kita ngomong a. Dan ini mungkin bisa jadi hal yang menarik buat semantic web iyah ga sih karena bener bener to the point, ada intinya, mungkin dikasi link juga disitu, berupa tiny url dan sebagainya, Dan mungkin bisa nge change permainan semantic juga, gimana menurut kalian?

AH: Sulit yah, content yang lebih pendek bukan jaminan lebih sedikit. Kita liat ada beberapa blog yang relative, istilahnya kurang berguna yah. misalnya isinya hari ini pergi ke pasar, tadi pagi bolpen jatuh dari meja. Ada informasi lian kalau nge blog. Dia kan orang penting, kadang kadang kita baca, ni orang siapa, Yang seperti itu kan kadang kadang text nya pendek, kalau itu di twitter kan tetep cenderung karena kandungan noicenya lebih tinggi dari informasinya. Entah yah lebih pendek memungkinkan analysis terutama kalau bahasa indonesia, text nya semua huruf mati, di singkat singkat. itu malah lebih kacau

RW: Tapi maksudnya kalau kita ngebandingin 2 informasi yang serupa, satu beruba blog post, satu berupa tweet yang akhirnya menuju ke blog post itu. Aku bisa argue bahwa versi twitter nya adalah summary dari blog post itu supaya untuk menarik orang pergi ke blog post itu karena selalu twitter itu sifatnya karena sangat concise yah kita mau ngasi informasi secepatnya untuk menarik orang buat ngeclick bog lost nya akhirnya jadi menjadi sebuah mekanismi abstraksi, artinya kaya nge summarized untuk advertising content tapi juga berguna untuk membuat satu link lebih bermakna, ini sama juga sama yang dilakukin oleh delious ga sih, kita nge bookmark tapi kita ngasih tag, jadi akhirnya by the end of the day, delicious mendapatkan arti dari url url ini. Url bukan sekedar ur tapi dengan tag, ada semantic nya lagi disini.

AH: Kembali ke pertanyaan yang awal tadi itu, kalau kita ngerjain selama manual begitu effective ga. Contoh lainnya geo tagging. dulu sebelon ada feature geo tagging, bisa selalu kita meletakan misalnya foto ini kita ambil disana karena kita tau kan kita mengabil foto itu, tapi berapa orang yang mengerjakan gitu. tapi setelah ada feature geo tagging dan foto langsung ada coordinate dari gps, tiba tiba menarik sekali kan. Tiba tiba indah sekali dunia, kita ga perlu manual lagi meletakan dimana foto foto itu dan akhirnya lokasi foto tersebut kalau kita upload ke flikr

RW: langsung keluar di peta?

AH: Betul, sebelon ada geo tagging, brapa sih kecuali photographer yang niat yah dan dia perlu itu. Tapi sebagian besar user apa lagi dari hp camera. Kembali ke manual atau otomatic. tapi ada problem analysis nya. Untuk twitter sebagai summary, bahasa english kan sudah ada tuh summarizer. untuk some word ajah kalau ga salah sudah ada plugin . Jadi satu paragraph, dia bisa singkatkan jadi satu kalimat.

RW: Wah, algorithm nya gimana itu? Karena kan dia mesti mikir apa yang penting di tulisan ini kan.

AH: Betul betul.

AF: Tapi menurut aku ada batasan antara memaknai dan mencari tau maksud dari si penulis content jadi mungkin dalam dunia semantic sekarang ini, kemungkinan besar yang bisa kita kerjakan, yang bisa dicapai manusia baru sampai, ke ini artinya apa, tapi tidak tau tujuan emang itu apa ga. Jadi mungkin dalam kasus dalam twitter tadi, kamu kan bilangnya ini summary tapi kan belon tentu itu summary, bisa jadi mungkin meng relfeksikan sesuatu dengan sesuatu tentang url nya, tapi belon tentu summary bisa jadi yang lain sih.

RW: Iyah,

AH: Itu namanya politik nih, bukan teknik lagi,

RW: Paling ga kalau kita bandingin sama meta text, jadi html ada meta tex, meta description buat dulunya di pake buat search engine optimisation kan, maksusnya kita harus menjelaskan sama search engine, ini content maksudnya apa, tapi karena ga bisa di baca sama manusia, akhirnya di abuse kan. Semua orang masukin semua kata yang terkenal aja biar page nya naik akhirnya google search, major search yang lainnya sudah used to ignore meta description. Sedangkan yang menarik disini twitter, again asumpsi, biasanya di consumsi dengan manusia dan kita lebih pintar mana yang kita mau follow, mana yang kita ga follow, mungkin kalau bisa di ambil makna dari itu juga, mana orang yang asli, mana yang robot, mana yang post berharga, mana yang kurang berharga, tipe tipe social clider.net dan bahwa satu tweet ini sudah di past along to different group of people dan masih survive 2-3 bulan mungkin tandanya sesuatu yang menarik, again banyak asumsi disitu. Tapi aku rasa ada masa depannya juga. Aku juga pengen sambungan ke automatic parcer engine lainnya yah, mungkin kita sudah pakai sehari hari, misalnya search engine, google seach, yang baru bing, yang bilang kalau kita bukan search engine tapi decision engine, Ada yang punya pendapat ga soal bing, apakah dia bener bener decision engine? oke or bias?

AH: Gw belon pernah coba bing, jadi ga bisa berkomentar.

AF: Licik ni.

AH: Bagaimana misalnya dengan Wolfram Alpha?

RW: Boleh boleh, dengan Wolfram Alpha

AH: Itu kan lebih ke menganalysis contentnya apa, meng analysis pertanyaan kita apa, mencoba menerjemahkan apa sih yang kita mau. Bukan cuman sekedar seperti google, classical search engine yah, cuman mencocokan apa yang ditanya dari hit nya.

AF: Kaya Wolfram Apha apakah tidak mendahului keinginan masing masing, terasa smart ass.

RW: Maksudnya gimana tuh, coba di jelaskan

AF: Ga mungkin kita quiry nya apa dan apa gitu. I dont want it, gitu kan

RW: Tapi kan justru kekuatannya Wolfram Alpha ga disitu kan, kekuatannya dimana kamu bisa ngasi pertanyaan yang mengantung 2 entity yang berbeda, dan dia berusaha nyari common denominator dari 2 entity itu. Kaya misalnya kita ngomong berapa penduduk orang Jakarta di saat Michael Jakson lahir? kaya begitu, aku ga tau sih Wolfram Alpha bisa menjawab pertanyaan itu specific apa ga, tapi sepertinya yang mereka mau melakukin begitu, bikin engine yang meng extract informasi yang kemudian bisa di bandingin dan kalkulasi

AH: Jangan lupa, begitu kita search Wolfram Alpha, dari informasi yang keluar kan kita bisa minta informasi lebih lanjut. misalnya data tentang Indonesia, kita bisa click misalnya data lebih tentang jumlah penduduk dan sebagainya, ini kan bisa di link lagi dengan queiry kita yang pertama kan. Jadi logika simple nya kalau kita search tentang satu search, orang mau tau banyak tentang satu kata itu dengan kategori tertentu, itu yang relevant kan. Dengan membandingkan analysis yang sejenis, bisa keluar kesimpulan kan dari situ. Ternyata ga ada yang tertarik jumlah penduduk misalnya, semua mau tau siapa artis di Indonesia, gitu kan. Dimasa depan itu yang di tunjukan

RW: Salah satu hal yang menarik buat aku juga adalah karena google search dan search search engine lainnya masih mengandalkan cuman sekedar pattern maching yah sedangkan kalau semantic search ini mengandalkan bener bener arti kayanya cenderung informasi yang di keluarin itu sangat sangat berbeda, satu lebih ke post, tutorial dan sebagainya, dan satu lebih kaya summary kan, nama apa, penduduk apa, lebih ke structure, Dan akhirnya mungkin ini bisa merubah gimana kita cara menggunakan informasi dari search juga yah, karena salah satu phenomena yang lumayan controversial pas google search keluar adalah plagging, semua orang bisa melihat pendapat orang lain atau kesimpulan yang diambil sama orang lain dan dianggap itu jadi miliknya sendiri, tinggal di ubah namanya, di submit ke universitas. Sedangkan dengan semantic engine ini, kita lebih di enpowered dengan fakta tapi tidak di bombardir dengan opini, setuju ga?

AH: Bagaimana kalau kita mungkin google search setelah di abuse kan, dengan google optimization maksudnya baik, caranya kurang baik sehingga, kadang kadang maksudnya ga baik kan, menipulasi search engine supaya cenderung ke satu sisi, apakah potensi yang sama bisa terjadi untuk Wolfram Alpha atau bing. Karena kalau itu terjadi akhirnya sama sajah kan, tadinya informasi yang disajikan kategoriall tapi sudah tanda kutip di menipulasi akhirnya cenderung ga balance lagi.

RW: Aku pengen sambungan point kamu yang bikin yah Ya, dengan something yang dibilang Jason sometimes in the past yah, dia ngomong bahwa SIO itu sebenernya bias, bullshit gitu. Dan aku ngerti banget maksudnya, untuk alasan the very exact reason yang kamu bilang bahwa kalau misalnya content nya bagus, akan secara natural organik akan naik sendiri, iyah ga sih. Ga perlu di ubah gimana gimana, akhirnya membuat noise ajah gitu, membuat content yang ga bermutu jadi naik tangga, naik ranking,

AH: Jadi seperti maling dan polisi yah. Google harus meng counter dari SIO yang standard dan yang mau untuk mempeburuk keadaan menemukan trik trik baru 

RW: Kita mau bahas sedikit tentang power set ga Ton. Itu cukup menarik juga tuh karena salah satu key player di semantic web

AF: Yang seperti Ariya bilang tadi, tapi kalau dalam kasus power set aku ga tau yah, apakah lebih ke natural language processing atau emang semantic?

AH: Gimana cara apa sempanse nya atau orang orang nulis, apa dia baca terus ditandai?

AF: Nah itu sendiri process yang aku belon tau

RW: Mungkin juga ini kali yah, masih proprietary, dia ga bakal ngasih tau. Salah satu kunci yang aku pengen kita ngomongin juga adalah, microsoft beli power set. Itu yang menurut aku lumayan menarik, mungkin bing akan digabung dengan power set karena aku sempet nyoba power set dan masukin beberapa search keluar, masukin nama band Beattles dan akhirnya keluar terus nyoba masukin nama sendiri, ga keluar apa apa dong karena kalau ga salah data source nya berdasarkan dari wikipedia doang.

AH: Ga terkenal berarti

RW: Mungkin masukin Ariya Hidayat, Terus yang ditawarin adalah kenapa ga use bing. Dia jadi sudah nawarin bing sekarang.

AH: Kalau Jadi gini kan lebih murah generate berapa ratus server dan server itu auto generate sebuah content. Yang dibaca oleh orang yang ngenalin power set yah.

AF: Jadi terkendala pada manusia?

AH: Kita kan bisa  menghasilkan sampah yah, sampah yang akhirnya harus di analysis. dan menghasilkan sampah itu pekerjaan gamapng. Apakah itu manual atau otomatic itu sesuatu yang mudah lah dibandingkan meng analysis

AF: Mungkin analysisnya bisa di offload ke community yah

RW: Ke out sourcing yah?

AF: Kalau kita ingat dulu kayanya pernah ada usaha dari google, nge tag gambar yang di

AH: Coba sekarang masih ada kan search yang kita naikan sendiri atau turunkan dari google, ntah apakah feature susah apa ga. Karena orang pake google kan mencari informasi, bukan lalu misalnya mencari Ronald, oh ini kok turun hit nya terus dia naikin.

AF: Kalau itu sih bergunanya buat diri sendiri yah. Kalau aku pernah make yang naik turunnya google itu karena aku pengen hal yang sudah aku temukan, aku taro paling atas.

AH: Gantinya bookmark yah?

AF: Iyah

AH: Tapi itu seperti private power set, seperti kira kira power set diri sendiri kan?

AF: Iyah kayanyag sih mirip mirip seperti itu lah

RW: Tadi yang Toni bilang, contoh yang menarik adalah google yah. Kalau ga salah mereka at some point berusaha nge caterogiriin images atau apa, tapi sama dia dibikin sebuah permainan. Bener ga?

AH: Iyah, dulu kayanya lomba antar 2 orang gitu.

RW: Yang jelas juga dulu ada yang kaya tipe tipe yahoo answer, apa tuh yang kalau kamu jawab atau kamu categoriin, dapet contribusi uang juga. Mungkin itu salah satu contoh bentuk menambahkan motivasi orang, meng categorikan informasi di internet yah,

AH: Incentive berupa uang itu berarti sesuatu yang gagal, karena pertama yang menjawab itu kan yang export, yang tau jawabannya. Yang contoh berhasil seperti stack overflow, karena stack overflow kan seperti wiki. Kan seperti wiki, kita contribusi karena sudah mendapat keuntungan dari situ. Kita merasa bisa memberikan sebuah pertanyaan, kemudian dapet balik lagi. Informasi yang ada di stack overflow itu, ai analysis, jadinya mungkin bagus banget. Itu cukup mudah kan untuk di automatisiin parcing karena context nya lumayan sempit. dan namanya pertanyaan programming kan keyword nya sudah lumayan jelas.

RW: Salah satu bentuk algoritmic lain yang bisa dipakai mengartikan web yang menarik adalah yang dipake google wave yah. Dia ga straight foward semantic, lebih buat spell checking tapi context sensitif di dalam defini tersebut ada semantic juga. Kamu mau ngetik apa, dia tau apa yang mau bisa ngetik, jadi nebak kata yang kamu maksud adalah ini, jadi bukan sekedar structure atau syntax tapi bagian semantic. Dan dia pake statistical model yang mereka punya dengan nge harvest web itu sendiri bahwa kalau kamu ngomong ini ini ini, percentase nya 90% kamu berusaha ngomong ini, 80% kamu berusaha ngomong ini, 70% berusaha ngomong ini. Itu mungkin menarik juga karena instead of ngambil kata dan berusaha bikin komputer mengerti kata itu apa tapi cuman pake modal probability doang, most likely kalimat ini may ngomong ini dan untuk sebuah google yang punya akses banyak di dunia, jadi mungkin lumayan akurat juga ga sih.

AH: Seperti cloud analysis?

RW: Iyah iyah

AH: Mungkin mirip dengan product baru dari anti virus, yaitu cloud anti virus, jadi idenya sama atau serupa, ini free yah bukan promosi tapi, bahwa setiap orang kalau meng install product tersebut, dia bakal meng analysis komputer tersebut dan mencari file atau program secara behaviour berbahaya dan sample nya akan dikirim ke markas besar. Nanti akan di sebar ke semua pengguna anti virus tersebut, artinya informasinya diambil dari cloud kan, jadi semua yang menggunakan itu. Kalau satu kena, yang lain bakal cepet dapet virus signature nya.

RW: Sangat menarik

AF: Soal cloud ini, soalnya aku sempet kenal, disana aku juga tau, dia juga menfaatkan model cloud juga, jadi data dari satu pengguna akan di kirimin ke cloud terus yang lain juga akan jadi punya.

RW: Kenapa kamu menduga itu Ps

AF: Ga, maksud aku PSnya, Cloud nya juga cuman sekedar marketing. Sebenernya kan bentuk nya simple, cuman berbagi datanya. Tapi sekarang dilabel sama cloud, jadi dapat harga tambahan.

RW: Ada yang nge tweet kayanya 1-2 bulan yang lalu, salah satu dikomunitas build in indonesia juga yah, twitter indonesia juga yah, dia ngomong kelaut computing, as in ke laut ajah lo. Anyway, sekalian mulai menutup kali yah, kita sudah diskusi lumayan lama. Aku pengen shout out juga buat salah satu pendengar teman macet yaitu di twitter @chikiahmani Dia ngeshare point of view yang lumyan menarik tentang semantic ap. Dia memberi contohnya semantic ap itu seharusnya web dan user copy and paste like mozila, dan kita bakal kasih linknya juga ke show notes tentang mozilla concept, lumayan menarik banget. Dia ini jadi plugin, pas mau nge copy paste, meng modifikasi sebuah text yang kamu baca di web, dia itu ngerti text itu apaan, kalau itu script, plugin atau apa, tiba tiba kamu tinggal copy, firefox nya tinggal bilang, oh ini plug in, mau di install ke saya ga, kamu bener bener percaya script ini ga. Kalau ini peta, kamu kirim ke user lain, atau mungkin ada informasi lain, oh kamu mau nge tweet ini, atau ada juga cuman alamat alamat ajah kamu select, click kanan tiba tiba semua point interestnya masuk ke google map. Contoh yang sangat menarik. Kayanya kuncinya disitu adalah kembali yang kita bicarain yah, ngurangin friksi antara satu informasi dengan informasi yang lain, akhirnya enable dan sebagainya

AF: Ada yang menarik adalah saya ga tau kapan harus memakainya, sebenernya plugginnya sudah ter install di firefox sudah sangat lama, dari awal saya tertarik masang karena soal concet nya siy, emang bagus karena bisa nge tweet dan email dan sebagainya dalam natural language tapi pada akhirnya justru itu ga terpakai, ntah mengapa.

RW: Mungkin itu kembali ke masalah Wolfram Alpha itu yah karena Wolfram Alpha kalau kita main main kayanya pinter banget tapi sekarang kalau di kehidupan sehari hari, kita susah menformulasi kan atau tujuan apa yang kita mau untuk ngedapetin, untuk mendayagunakan semantic itu. karena mayoritas yang kita butuhin sehari hari mungkin. Sori, gw ubah. Mungkin kita susah ngeliat apa yang kita mau tanpa melihat, tanpa nge browse tanpa melihat informasi informasi yang sudah ada. Karena dengan nge click nge clink, mencoba coba, dengan mencari informasi yang susah dicari, akhirnya kita meng formasikan dengan oh yang sebenernya kita mau tuh ini, jadi kaya cutting down all the stuff we don’t want, akhirnya kita tau apa yang sebenernya kita mau. Sedangkan dengan semantic engine kita cenderung kita harus tau dulu apa yang kita mau, kalau ga, ga ada dapet dapet.

AF: Mungkin ini jadi kunci nya semantic yah, yang di barukan justru face implementasi, yang lain lain nya sudah tersedia

AH: Maksudnya implementasi gimana? standard?

AF: Bukan standard, yang seperti tadi misalnya user, misalnya kaya tadi kita masukin alamat akan keluar peta. tapi yang ga ada justru aksi nya seperti nya, action yang bisa di gunakan untuk memanfaatkan data yang sudah ada,

RW: Oke, jadi ada hal hal lain yang mau di bahas sebelon kita mengakhiri diskusi kita.

AF: Kayanya perlu episode lanjutan kali

RW: Kayanya ini topic masih gede banget yah, dan kita sudah lumayan lewat 30 menit yang biasanya di sediakan. Oke, makasih Toni sudah menemin Ariya dan aya sendiri di temanmacet ini. Komen kritik bisa di kirim ke tanya@temanmacet.com. Kita juga punya twitter @temanmacet. Oke, terima kasih Toni, sampai jumpa minggu depan.