Cách tối ưu hóa AI cho quy trình kiểm tra chất lượng (QA) hiệu quả hơn!

Derpy
Derpy
Phản hồi: 0

Derpy

Intern Writer
Trí tuệ nhân tạo (AI) đã thay đổi một cách mạnh mẽ quy trình đảm bảo chất lượng (QA), phá vỡ những cách thức tự động hóa thử nghiệm cũ kém hiệu quả, hứa hẹn mang lại những bước tiến lớn về tốc độ và khả năng thử nghiệm những điều mà trước đây chúng ta không thể dễ dàng kiểm tra. Tuy nhiên, việc xây dựng niềm tin vào AI trong các đội ngũ QA vẫn là một thách thức lớn trong ngành. Một phần lớn của khó khăn này xuất phát từ bản chất "hộp đen" của các công cụ AI, trong đó quy trình xử lý bên trong được ẩn đi. Điều này khiến nhiều người lo lắng về độ chính xác và độ tin cậy của các đầu ra nhằm đảm bảo chất lượng phần mềm quan trọng. Nỗi lo lắng này càng được nhân lên bởi sự thay đổi trong vai trò của các kiểm thử viên khi áp dụng các công cụ này. Vì vậy, việc xây dựng niềm tin thực sự với AI trong QA không phải là điều tự nhiên xảy ra. Thay vào đó, nó đòi hỏi một chiến lược và hành động có chủ đích.

Mayank Bhola, đồng sáng lập và trưởng phòng sản phẩm tại LambdaTest - một nền tảng kiểm thử phần mềm AI, nhấn mạnh rằng việc đạt được sự tin tưởng từ đội ngũ và ROI (lợi tức đầu tư) đo lường được với AI phụ thuộc vào việc lựa chọn công cụ một cách thông minh và kiên trì giải quyết các thách thức về tích hợp. Việc tập trung vào các tiêu chí đánh giá toàn diện và chủ động giải quyết các rào cản trong quá trình triển khai là những bước nền tảng thiết yếu cho bất kỳ tổ chức nào nghiêm túc muốn tận dụng AI một cách hiệu quả.
How-to-Make-AI-Work-in-QA-scaled.avif

Việc lựa chọn công cụ AI phù hợp cho đội ngũ QA là rất quan trọng trong việc xây dựng niềm tin và mang lại giá trị đo lường được. Điều này yêu cầu chúng ta không chỉ xem xét danh sách tính năng cơ bản mà các nhà cung cấp trình bày, mà còn tập trung vào các tiêu chí kỹ thuật chứng minh công cụ là đáng tin cậy và có khả năng hoạt động trong các quy trình thực tế. Niềm tin liên quan trực tiếp đến việc hiểu cách mà AI thực hiện các nhiệm vụ của nó. Bhola kêu gọi sự minh bạch và khả năng giải thích bằng "ngôn ngữ đơn giản" với "các đầu ra có thể truy vết… và có thể kiểm toán." Điều này có nghĩa là các công cụ cần có tính năng ghi log mạnh mẽ, khả năng theo dõi và các dấu vết kiểm toán rõ ràng để các kiểm thử viên có thể gỡ lỗi và xác minh các bước và quy trình dữ liệu của AI, giống như họ làm với bất kỳ thành phần phức tạp nào khác trong hệ thống.

Ngoài khả năng giải thích, sự minh bạch kỹ thuật cũng liên quan đến tính nhất quán. Andy Piper, Phó chủ tịch kỹ thuật tại Diffblue, chỉ ra rằng các mô hình ngôn ngữ lớn (LLMs) thường yếu kém về tính minh bạch và nhất quán vì chúng là các mô hình xác suất. Công ty của anh lựa chọn các mô hình AI xác định, điều này "tăng cường niềm tin giữa các nhà phát triển" bằng cách luôn cung cấp cùng một đầu ra kỹ thuật cho cùng một đầu vào kỹ thuật. Việc đánh giá tính nhất quán và dự đoán được của hành vi kỹ thuật của công cụ AI nên trở thành một phần quan trọng trong quy trình đánh giá, đặc biệt khi so sánh các phương pháp AI khác nhau.

An ninh cũng là điều không thể thương lượng. Theo Sunil Senan, Phó Chủ tịch cấp cao và Trưởng phòng Dữ liệu, Phân tích & AI tại Infosys, bất kỳ công cụ AI nào cũng phải tuân theo các thực hành và tiêu chuẩn kỹ thuật tốt nhất trong ngành, bao gồm việc giải quyết những lỗ hổng quan trọng như được nêu trong OWASP Top 10 và bảo mật cơ sở hạ tầng như Kubernetes. Ông nhấn mạnh rằng việc đáp ứng các tiêu chuẩn cấp doanh nghiệp (SOC2, ISO, GDPR) là một tiêu chí cơ bản, đặc biệt trong các lĩnh vực được quy định. Các công cụ cũng cần có cấu hình kỹ thuật để ngăn AI truy cập vào dữ liệu nhạy cảm mà bạn có trên mạng hoặc cơ sở của bạn một cách vô tình. Hơn nữa, các tổ chức cần giữ quyền sở hữu và tính bảo mật của dữ liệu đầu vào gửi đến công cụ và đầu ra nhận lại, điều này đòi hỏi các chính sách xử lý dữ liệu kỹ thuật rõ ràng từ nhà cung cấp.

Ngoài các yếu tố về mức độ tin cậy, các tổ chức cũng cần kiểm tra xem công cụ có mang lại giá trị kỹ thuật thực sự hay không. Bhola khuyên nên ưu tiên những AI Agents hoạt động như một "trợ lý chiến lược" - phân tích kết quả thử nghiệm trong quá khứ để xây dựng các chiến lược trong tương lai cho QA toàn diện, thay vì chỉ tạo ra các kịch bản thử nghiệm. Những AI Agents này phải giải quyết "các vấn đề thực trong doanh nghiệp", không chỉ hoạt động tốt trong các điều kiện kiểm soát, mà còn đưa ra các công cụ thử nghiệm dựa trên các vấn đề trong sản xuất thực tế hoặc các tình huống phức tạp.

Karan Ratra, lãnh đạo kỹ thuật cao cấp tại Walmart, gợi ý rằng chúng ta cần phải đánh giá AI cẩn thận như một kiểm thử viên con người, khuyên nên tiến hành "thử nghiệm song song giữa các LLM khác nhau" để xem chúng xử lý các đầu vào kỹ thuật đa dạng hoặc sai lệch như thế nào. Sự xem xét kỹ thuật này giúp khám phá ra khả năng thực sự của một công cụ ngoài các điều kiện lý tưởng. sự linh hoạt trong tích hợp cũng rất quan trọng; công cụ cần phải phù hợp một cách mượt mà vào các quy trình CI/CD và các công cụ khác bằng cách sử dụng các kết nối tiêu chuẩn. Nghĩ về ROI cũng rất quan trọng, và nó bao gồm nhiều lĩnh vực cải tiến, không chỉ là tiết kiệm thời gian. Senan từ Infosys nhấn mạnh rằng việc đánh giá tác động đến độ phủ thử nghiệm, ưu tiên rủi ro và phát hiện lỗi là "Giá trị vượt ngoài tốc độ." Cuối cùng, phải có một ROI rõ ràng và phù hợp với hoạt động. Các công ty không nên áp dụng AI "chỉ vì lý do thực hiện AI", mà bởi vì nó "thực sự giúp cải thiện sự xuất sắc vận hành hoặc cải thiện các chỉ số chi phí."

Việc kiểm tra liệu nhà cung cấp có đáng tin cậy và cung cấp hỗ trợ tốt hay không là rất quan trọng. Bạn cần có sự tự tin vào các thực hành an ninh của họ và khả năng giúp bạn tích hợp và giải quyết vấn đề. Vì vậy, việc đánh giá công cụ một cách kỹ lưỡng dựa trên tính minh bạch kỹ thuật, tiêu chuẩn an ninh, khả năng xác minh, linh hoạt trong tích hợp và ROI tiềm năng được đo lường rộng rãi là rất quan trọng. Việc lựa chọn thông minh xây dựng niềm tin vào các giải pháp kỹ thuật mà bạn triển khai.

Cách thức triển khai AI thường gặp cũng là một thách thức lớn. Ngay cả khi các đội ngũ hiểu rõ về đạo đức và nhìn thấy tiềm năng, việc ứng dụng AI vào QA vẫn gặp phải một số thử thách. Những rào cản này khiến việc xây dựng niềm tin trở nên khó khăn hơn và có thể làm giảm đáng kể ROI dự kiến. Một vấn đề lớn là kỳ vọng không thực tế. Hugo Farinha, đồng sáng lập tại Virtuoso QA, chỉ ra rằng "kỳ vọng không thực tế" là một rào cản chính. Rất khó để tách biệt sự thật và hư cấu vì nhiều công cụ AI đã hứa hẹn nhiều khả năng kỹ thuật mà thực tế vẫn còn non trẻ. Việc chứng minh giá trị tài chính của AI về mặt kỹ thuật cũng là một thách thức quan trọng. Nhiều đội ngũ thiếu các chỉ số cứng về thời gian tạo ra, nỗ lực duy trì, và mức độ rò rỉ lỗi, điều này khiến cho việc chứng minh ROI trở nên khó khăn. Merrell lý giải rằng "không ai biết ROI thực sự sẽ là gì... ở thời điểm này" vì thị trường vẫn còn trẻ. Và điều quan trọng là cần xem xét đến nghịch lý của các kiểm thử viên - việc xác minh đầu ra của AI khiến công cụ có vẻ kém hiệu quả hơn, gây áp lực lên các đội ngũ để hành động bất hợp lý về cấu trúc.

Ngoài ra, việc xử lý các phức tạp kỹ thuật và các vấn đề quản trị dữ liệu cũng là một trở ngại đáng kể. Quản trị dữ liệu - đảm bảo dữ liệu kiểm thử được giữ kín, ẩn danh và mã hóa trong khi cung cấp cho các mô hình AI - là một thách thức kỹ thuật quan trọng. Senan lưu ý rằng "các khoảng trống trong quản trị" có thể làm mất hiệu lực các sáng kiến AI nếu không được chú ý từ đầu. Một yếu tố khác: sự trừu tượng của AI có thể khó diễn giải, gây cản trở niềm tin vào các quyết định liên quan đến khả năng giải thích mô hình. Việc hiệu chỉnh các rào chắn - cân bằng giữa tự chủ của AI và sự kiểm soát thủ công - cũng là một thách thức trong cấu hình kỹ thuật. Tích hợp AI vào các quy trình hiện có cũng gặp nhiều khó khăn. Việc tích hợp vào pipeline - đưa Gen AI vào CI/CD hiện tại mà không làm gián đoạn nhịp độ phát hành - là một thách thức. Việc tích hợp AI bị cô lập giữa các đội ngũ cũng cản trở việc tiếp nhận kỹ thuật vào bối cảnh rộng lớn hơn, Farinha lưu ý. Ngoài ra, còn có khó khăn kỹ thuật và chi phí gia tăng khi AI được sử dụng để kiểm tra những thứ mang tính xác suất, nghĩa là kết quả không phải lúc nào cũng giống nhau và cần phải kiểm tra lại. Hơn nữa, AI mang lại một bề mặt tấn công lớn mà không thể bảo vệ, với các tác động đến DevSecOps. Bề mặt tấn công này phát sinh do các tính năng AI có thể bị tổn thương bởi các vấn đề như tiêm lệnh (prompt injection), lỗ hổng chuỗi cung ứng và các plugin không an toàn, điều này có nghĩa là cần có AI tiên tiến để kiểm tra những vectơ tấn công mới này.

Cách quản lý nội bộ và con người cũng có ảnh hưởng đáng kể. Quản lý thay đổi - chuyển đổi vai trò QA từ trình kịch bản lặp đi lặp lại sang giám sát hỗ trợ AI - đòi hỏi các kế hoạch nâng cao kỹ năng rõ ràng. Senan lưu ý rằng "Nỗi sợ bị thay thế" là một thách thức mà các tổ chức phải đối phó bằng cách định vị Gen AI như một bộ tăng cường sức mạnh, vì vậy "Quản lý Thay đổi" là rất quan trọng cho việc áp dụng hiệu quả. Việc điều hướng bối cảnh nhà cung cấp với những công cụ chưa trưởng thành cũng đặt ra những thách thức liên tục. Bhola khuyên rằng "Lựa chọn các nhà cung cấp thực sự minh bạch về các thực tiễn AI của họ và có một lộ trình rõ ràng để xử lý nợ kỹ thuật trong các mô hình của họ là một thách thức lớn đối với nhiều tổ chức." Điều này đòi hỏi sự thẩm định cẩn thận vượt qua cả marketing. Cân bằng giữa tự động hóa và trách nhiệm cũng khó khăn khi các kiểm tra tự động bỏ sót điều gì đó quan trọng. Senan thêm rằng việc tích hợp các nguyên tắc AI có trách nhiệm và AI tự hành giúp các tổ chức vượt qua những thách thức này bằng cách tích hợp các tác nhân tự trị vào các môi trường được quản lý.

Mặc dù những rào cản này không nên làm nản lòng việc áp dụng AI, nhưng chúng đại diện cho những thử thách kỹ thuật và tổ chức quan trọng cần có chiến lược có chủ đích, lập kế hoạch cẩn thận và sự sẵn sàng của tổ chức trong việc điều chỉnh các hoạt động và chỉ số thành công của QA theo thực tế của AI.

Vì vậy, việc xây dựng niềm tin vào QA dựa trên AI chắc chắn không phải là một điều đơn giản. Khi áp dụng AI thành công và mang lại giá trị thực sự đòi hỏi nhiều hơn là chỉ đơn thuần áp dụng công nghệ. Các nhà lãnh đạo trong ngành nhấn mạnh rằng niềm tin phải được xây dựng một cách có chủ đích trong khi giải quyết cả các khía cạnh kỹ thuật và nhân văn trong suốt quá trình. Điều này bắt đầu bằng việc lựa chọn công cụ chiến lược. "Bạn phải tập trung vào các tiêu chí kỹ thuật như tính năng minh bạch, tuân thủ tiêu chuẩn an ninh, khả năng thực tế và tính linh hoạt trong tích hợp," Ratra từ Walmart cho biết. Việc đánh giá AI dựa trên những gì thực sự quan trọng sẽ xây dựng nền tảng cho độ tin cậy và tự tin. Và điều này có nghĩa là bạn cần sẵn sàng đối mặt với những vấn đề thực tế phát sinh trong quá trình triển khai. Điều này bao gồm quản lý kỳ vọng, thu thập các chỉ số kỹ thuật hợp lý cho ROI, điều hướng quản trị dữ liệu và các trở ngại tích hợp, cùng với việc xử lý những thay đổi trong tổ chức liên quan đến vai trò và trách nhiệm.

"Những rào cản này cần được điều hướng chiến lược, không phải là tránh né," Bhola giải thích, dựa trên kinh nghiệm kỹ thuật của mình khi phát triển Kane AI, một tác nhân kiểm thử GenAI nội bộ được nhóm của ông tại LambdaTest phát triển. Cuối cùng, AI trong QA đại diện cho một sự hợp tác giữa công nghệ và chuyên môn con người. AI xử lý các nhiệm vụ lặp đi lặp lại, tìm ra các mẫu. Nhưng con người mang lại tư duy phản biện, phán đoán và ngữ cảnh chiến lược vẫn rất cần thiết. Khi các tổ chức cam kết đánh giá cẩn thận và vượt qua các thách thức, họ sẽ mở khóa tiềm năng của AI. Bhola nhấn mạnh rằng "Khi được thực hiện đúng, việc tập trung vào việc xây dựng niềm tin và giải quyết các thách thức sẽ mang lại giải pháp AI không chỉ cải thiện hiệu quả kỹ thuật mà còn nâng cao chất lượng và tốc độ tổng thể của việc giao hàng phần mềm." Mục tiêu của tất cả những điều này là để trao quyền cho các kiểm thử viên, đơn giản hóa quy trình và cung cấp phần mềm đáng tin cậy với sự tự tin.(datasciencecentral)
 


Đăng nhập một lần thảo luận tẹt ga
Thành viên mới đăng
http://textlink.linktop.vn/?adslk=aHR0cHM6Ly93d3cudm5yZXZpZXcudm4vdGhyZWFkcy9jYWNoLXRvaS11dS1ob2EtYWktY2hvLXF1eS10cmluaC1raWVtLXRyYS1jaGF0LWx1b25nLXFhLWhpZXUtcXVhLWhvbi42NjI4Ny8=
Top