Vibe Coding心得篇

習Vibe Coding也快半年,主要目標是建立全自動AI稽核員與資安官,取代我自己的工作。開玩笑地,其實是去稽核客戶時,能夠協助客戶看到問題,以及協助判別與AI 標準的符合性,以及安全性。

這二周我利用Anthropic claude and claude code ,並架設在 zeabur平台上。在這段開發期間,我深刻感受到兩個平台的三強聯手威力。當然,小弟我也是關鍵的小弱弱(負責跟AI大人們彼此橫向連接),若未來AI大人們可以自己溝通,大概也沒有我的事了(旁邊喝茶去)。

接下來,分享一些心得:

1.開發人員常提到研究 (Research) 與開發Development),我認為在Anthropic中是claude chat與claude code的最佳詮釋。

(1)claude:

*用於使用者跟claude討論概念。討論過程小弟給他專業指導與方法論,給他方向與實際網站參考。

*我設計一份初階的AI System Reslience Test Bed的系統開發規格書,然後與claude討論腦力激盪出全部功能。在確認完需求後,claude就幫我設計出系統平台的技術架構,整理出所有開發功能、功能關聯族譜等。

*設計專案開發時程與計畫,以及可以讓claude code直接開發的指導書(Markdown)

(2)claude code

*會再次審查claude 給的指導書(Markdown),然後依照claude的開發時程進行開發。

*由於購買點數的限制,所以claude code用四天做完四週的開發工作。

2.部署

(1)由於我規劃Github CI/CD方式部署在zeabur上,但發現開發者設計的架構,不一定能適用在Cloud Platform 架構上。這邊得到一個心得,AI開發前需要架構師指導一下。小弟又回去擔任架構師與AI大人一同研析與Debug。

(2)重點來了,部署時還是發生問題。小弟這時只能拿出「神秘小棒棒-Generative Adversarial Network(GAN)生成對抗網路」,來用於開發階段的, 讓claude code與Zeabur AI 分別擔任生成器(Generator)與辨別器(Discriminator),期望其在開發流程中,對於程式碼審查(Code Review)與自動化測試,在沒有人類干預的情況下自我優化。

「Claude code編碼 <彼此自己對話 > Zeabur AI回饋]

[實務心得-別作夢了,事實是殘酷的],也有可能我還沒學到方式。

我就在反反覆覆的人工介入兩位AI大人的溝通上,學習到「RLEF 來自環境回饋的強化學習( Reinforcement Learning from Environment Feedback)」的概念與實作,也就是讓AI 學習的是如何「符合現實世界的物理/邏輯規則」開發,而不是讓AI在實驗室內瘋狂無效輸出。

RLEF 應該會是將 AI 從「一本正經地能言善道」轉變為「實戰派」的關鍵,我認為這在Vibe Codeing開發領域中,應該是非常重要的觀念。

總結:

1.讓AI開發前還是要依照軟體工程的流程,釐清系統架構、平台框架與資源等,不然等到後面再來討論。

2.善用AI對AI技巧,2位大人物的溝通深度與速度,不是我這平凡人類能夠比擬的。

3.Vibe Codeing知識深似海,繼續學習囉

接下來要完備AI System Reslience Test Bed系統的內容,骨頭(架構)蓋好了,現在要裝潢內部了

Author: 彼得

發佈留言

發佈留言必須填寫的電子郵件地址不會公開。 必填欄位標示為 *