訓練圖示

訓練

人工智慧的優劣取決於用來訓練的資料,而不同的使用案例則會決定結果適當與否。 為此,我們建立了專為滿足各種業務需求的資料集,以確保產生的結果多元且符合倫理,並適合使用人工智慧的方式。

測試圖示

測試

我們會對人工智慧支援的功能和產品持續進行嚴格的測試,以降低有害的偏見和刻板印象。 測試方式包括自動化測試和人為評估。

影響評估圖示

影響評估

只要是開發人工智慧支援功能的工程師,都須提交一份人工智慧倫理影響評估。 這份影響評估會分成多個部分,旨在找出可能會留下有害偏見和刻板印象的功能和產品, 並可讓我們的人工智慧倫理團隊將心力集中可能會對倫理造成最大影響的功能和產品,無須放慢創新速度。

多元化人為監督圖示

多元化人為監督

可能對倫理造成最大影響的人工智慧支援功能,會經過由多元且跨職能成員組成的人工智慧倫理審核委員會進行審查。 如果要從各種觀點找出潛在問題,多元的成員組成以及各種專業背景和經驗至關重要;如果團隊的多元化程度較低,可能就無法發現這些問題。 聽聽我們的委員會成員怎麼說: 觀看影片

意見回饋圖示

意見回饋

我們提供意見回饋的機制,讓使用者在輸出結果可能存在偏頗時可以進行回報,以便我們補救任何問題。 人工智慧是持續不斷的旅程,我們希望能夠與社群合作,繼續讓我們的工具和產品變得更適合每個人。 如果您對人工智慧倫理有任何疑問,或想要回報可能的人工智慧倫理問題,請聯絡我們